訂閱
糾錯
加入自媒體

提高人工智能道德水平的9個步驟

5.清理數據

機器學習系統的行業(yè)與它們所依賴的數據一樣好。對于許多組織而言,數據質量仍然是一個主要問題。在最壞的情況下,糟糕的數據可能導致組織做出不準確甚至道德上受到損害的決策。

另一方面,擁有準確、最新的數據會增加人工智能應用程序產生積極經濟利益的可能性。Information Builders數據管理卓越中心的國際主管James Cotton在一次采訪中表示,“當分析應用于管理良好的數據時,其回報要大得多?梢郧宄亓私饨M織擁有什么,來自何處以及如何使用它會帶來更大的回報。“

6.檢查模型是否存在偏差跡象

數據科學家不僅需要確保他們的數據是干凈的,而且他們還需要確保他們的數據和數據模型不包含任何偏差。這個問題可能會以幾種不同的方式無意中進入到機器學習模型中。

首先,組織可能有不完整的訓練數據。例如,如果企業(yè)只使用歐洲面孔訓練其面部識別系統,那么當系統難以識別非洲或亞洲面孔時,人們不應對此感到驚訝。

其次,許多數據集包括歷史偏差。例如,一些職業(yè)(例如護理或工程)在傳統上一直是由性別主導的。如果組織根據這些歷史數據訓練基于人工智能的人力資源系統選擇面試候選人,可能會意外地出現偏見,甚至可能觸犯反歧視法規(guī)。

7.監(jiān)控調查結果和反饋

而數據科學家通常表示,沒有數據模型是完美的。他們所能期望最好的情況就是隨著時間的推移而改進。這意味著人類需要監(jiān)控系統來尋找潛在的道德問題。許多已發(fā)布人工智能指南的組織表示,所有人工智能技術都需要對人類負責。但一些人卻表示,只是問責是不夠的;人類監(jiān)管者需要積極跟蹤人工智能的行為和與人類的互動,并在必要時作出調整,以確保人工智能技術不會跨越任何道德界限。

8.確保可以撤消人工智能所做的任何決定

在相關的說明中,組織需要能夠撤消人工智能所做出的任何決定。Forrester公司建議,組織開發(fā)的人工智能系統從根本上需要是健全的、可評估的、包容、可逆的,這意味需要設計可更改的人工智能系統,而且可能還需要為信貸決策等事項設立人工智能上訴委員會。

AI Now研究所進一步指出,“技術工作者的組織和抵制已經成為一種責任和道德決策的力量。技術公司需要保護工人的組織能力、揭發(fā)信息的能力,并在他們從事的項目上做出道德選擇。這應包括明確的政策,以適應和保護有責任心的反對者,確保工作人員有權知道他們在做什么,并有能力在沒有報復或懲罰的情況下放棄此類工作!

9.成立人工智能道德咨詢委員會

包括谷歌公司在內的多家科技公司已成立人工智能道德咨詢委員會,以幫助指導他們使用人工智能。雖然讓一群局外人監(jiān)督組織的人工智能工作可能有助于建立公眾信任,但也可能適得其反。一些組織因任命人工智能道德委員會成員而受到批評,有些人對此表示反對。

雖然成立人工智能道德委員會可能存在一些問題,但在缺乏監(jiān)管法規(guī)或行業(yè)標準的情況下,它們可能是組織說服公眾的最佳機會,即通過沒有既得利益的人員監(jiān)督人工智能的發(fā)展。

<上一頁  1  2  
聲明: 本文系OFweek根據授權轉載自其它媒體或授權刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責,如有新聞稿件和圖片作品的內容、版權以及其它問題的,請聯系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號