AI的多元化危機:研究報告吐槽人工智能領(lǐng)域過于“白人直男癌”
AI Now 研究所在今日發(fā)布的一份報告中稱,人工智能行業(yè)面臨著“多樣化危機”,并且直指該領(lǐng)域方向的“關(guān)鍵問題”。 報告發(fā)現(xiàn),女性和有色人種在 AI 領(lǐng)域的比例嚴(yán)重不足,約 80% 人工智能教授性別為男性。即便是 Facebook 和 Google 這樣的大公司,也只有大約 10% 的女性 AI 研究人員,更別提有色人種只占其中的一小部分了。
報告截圖(來自:AI Now | PDF ,via TheVerge )
AI Now Institute 聯(lián)席主管 Meredith Whittaker 一針見血地指出,在打造影響其他人群的工具上,AI 領(lǐng)域缺乏多樣性、過于“白人直男癌”了。
更糟糕的是,通過修復(fù)潛在求職者“渠道”來改善問題的方案,很大程度上也都失敗了。 研究人員寫到:“經(jīng)過數(shù)十年的管道研究、評估了從學(xué)校到行業(yè)的各類求職者流動,AI 領(lǐng)域在多樣性上并未取得實質(zhì)性進展”。
為此,AI Now Institute 提出了一些改善問題的建議,比如企業(yè)能夠發(fā)布更多按照種族和性別劃分的補償數(shù)據(jù),以及通過公布騷擾/歧視報告,來提升透明度。
有觀點指出, 盡管多樣性是科技行業(yè)難以逾越的鴻溝,但其在 AI 領(lǐng)域埋下的風(fēng)險卻要大得多, 尤其是某些潛在含有偏見的技術(shù)(比如面部識別),可能會不成比例地影響歷史上被邊緣化的那部分群體。
其實早在 2017 年,就有面部掃描識別程序存在不公正現(xiàn)象的批評。但除了更加嚴(yán)格的測試,AI 工具的制造商們,也必須切實最好風(fēng)險規(guī)避,將這些系統(tǒng)打造得既安全又公平。
早前亞馬遜因 Rekognition 面部識別技術(shù)存在偏見而遭到炮轟,谷歌也在各界壓力傳導(dǎo)下成立了人工智能審查委員會。
研究人員指出,“ 人工智能中領(lǐng)域的多樣性危機,已有詳細(xì)記錄且造成了廣泛的影響, 涉及行業(yè) / 學(xué)術(shù)領(lǐng)域的不平等、招聘 / 晉升差異、反映和擴大有偏見的觀念、以及自動化系統(tǒng)中的生物識別等方面”。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
7月8日立即報名>> 【在線會議】英飛凌新一代智能照明方案賦能綠色建筑與工業(yè)互聯(lián)
-
7月22-29日立即報名>> 【線下論壇】第三屆安富利汽車生態(tài)圈峰會
-
7.30-8.1火熱報名中>> 全數(shù)會2025(第六屆)機器人及智能工廠展
-
7月31日免費預(yù)約>> OFweek 2025具身智能機器人產(chǎn)業(yè)技術(shù)創(chuàng)新應(yīng)用論壇
-
免費參會立即報名>> 7月30日- 8月1日 2025全數(shù)會工業(yè)芯片與傳感儀表展
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍皮書》
推薦專題