提高人工智能道德水平的9個步驟
5.清理數據
機器學習系統的行業(yè)與它們所依賴的數據一樣好。對于許多組織而言,數據質量仍然是一個主要問題。在最壞的情況下,糟糕的數據可能導致組織做出不準確甚至道德上受到損害的決策。
另一方面,擁有準確、最新的數據會增加人工智能應用程序產生積極經濟利益的可能性。Information Builders數據管理卓越中心的國際主管James Cotton在一次采訪中表示,“當分析應用于管理良好的數據時,其回報要大得多?梢郧宄亓私饨M織擁有什么,來自何處以及如何使用它會帶來更大的回報。“
6.檢查模型是否存在偏差跡象
數據科學家不僅需要確保他們的數據是干凈的,而且他們還需要確保他們的數據和數據模型不包含任何偏差。這個問題可能會以幾種不同的方式無意中進入到機器學習模型中。
首先,組織可能有不完整的訓練數據。例如,如果企業(yè)只使用歐洲面孔訓練其面部識別系統,那么當系統難以識別非洲或亞洲面孔時,人們不應對此感到驚訝。
其次,許多數據集包括歷史偏差。例如,一些職業(yè)(例如護理或工程)在傳統上一直是由性別主導的。如果組織根據這些歷史數據訓練基于人工智能的人力資源系統選擇面試候選人,可能會意外地出現偏見,甚至可能觸犯反歧視法規(guī)。
7.監(jiān)控調查結果和反饋
而數據科學家通常表示,沒有數據模型是完美的。他們所能期望最好的情況就是隨著時間的推移而改進。這意味著人類需要監(jiān)控系統來尋找潛在的道德問題。許多已發(fā)布人工智能指南的組織表示,所有人工智能技術都需要對人類負責。但一些人卻表示,只是問責是不夠的;人類監(jiān)管者需要積極跟蹤人工智能的行為和與人類的互動,并在必要時作出調整,以確保人工智能技術不會跨越任何道德界限。
8.確保可以撤消人工智能所做的任何決定
在相關的說明中,組織需要能夠撤消人工智能所做出的任何決定。Forrester公司建議,組織開發(fā)的人工智能系統從根本上需要是健全的、可評估的、包容、可逆的,這意味需要設計可更改的人工智能系統,而且可能還需要為信貸決策等事項設立人工智能上訴委員會。
AI Now研究所進一步指出,“技術工作者的組織和抵制已經成為一種責任和道德決策的力量。技術公司需要保護工人的組織能力、揭發(fā)信息的能力,并在他們從事的項目上做出道德選擇。這應包括明確的政策,以適應和保護有責任心的反對者,確保工作人員有權知道他們在做什么,并有能力在沒有報復或懲罰的情況下放棄此類工作!
9.成立人工智能道德咨詢委員會
包括谷歌公司在內的多家科技公司已成立人工智能道德咨詢委員會,以幫助指導他們使用人工智能。雖然讓一群局外人監(jiān)督組織的人工智能工作可能有助于建立公眾信任,但也可能適得其反。一些組織因任命人工智能道德委員會成員而受到批評,有些人對此表示反對。
雖然成立人工智能道德委員會可能存在一些問題,但在缺乏監(jiān)管法規(guī)或行業(yè)標準的情況下,它們可能是組織說服公眾的最佳機會,即通過沒有既得利益的人員監(jiān)督人工智能的發(fā)展。

請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
-
7月8日立即報名>> 【在線會議】英飛凌新一代智能照明方案賦能綠色建筑與工業(yè)互聯
-
7月22-29日立即報名>> 【線下論壇】第三屆安富利汽車生態(tài)圈峰會
-
7.30-8.1火熱報名中>> 全數會2025(第六屆)機器人及智能工廠展
-
7月31日免費預約>> OFweek 2025具身智能機器人產業(yè)技術創(chuàng)新應用論壇
-
免費參會立即報名>> 7月30日- 8月1日 2025全數會工業(yè)芯片與傳感儀表展
-
即日-2025.8.1立即下載>> 《2024智能制造產業(yè)高端化、智能化、綠色化發(fā)展藍皮書》
推薦專題