當AI開始保護她
當AI被把握在女性手中
AI不能理解語境嗎?顯然不是,大量涉及到長本文語義理解的算法就是干這個的。只不過面對性別侮辱這類相對復雜的語境,需要大量的訓練樣本和反復調(diào)試。
當?shù)貌坏絋witter的支持時,大赦國際做了兩件事:
第一是找了6500位志愿者,在推特上分別尋找收集那些侮辱女性的言論和正常言論,作為標注數(shù)據(jù)累積,建立起了全世界最大的“仇女言論”數(shù)據(jù)集。
第二是找到Element AI,一家提供AI既服務的創(chuàng)業(yè)企業(yè),利用數(shù)據(jù)進行訓練和分析,最終得出了上述完整的數(shù)據(jù),并且訓練出了一個可以判斷女性侮辱言論的神經(jīng)網(wǎng)絡模型。大赦國際在報告中提出,目前這一模型的準確度已經(jīng)達到了50%,并且還在不斷提高中。
當然最后的結局沒有人們想象中那么美好,Twitter并沒有直接采用模型,借此保護平臺上的女性用戶。但通過這兩件事,大赦國際明確了自己的需求,給Twitter提了很多富有價值的意見,例如Twitter應該改進舉報機制,讓關于女性侮辱的舉報可以得到更多重視;Twitter應該更加清晰的解釋平臺過濾算法如何運行,如何識別那些針對女性的語言暴力;Twitter應該加強對女性用戶的教育,提醒她們?nèi)绾伪Wo自己;更重要的是,Twitter應該更多的公開相關數(shù)據(jù),讓更多人知道女性正在社交媒體上承受著更多壓力。
打破技術即權力:保護她和他們的AI
這件事情其實帶來了一個非常有趣的思考:當AI發(fā)展的愈發(fā)成熟,技術即權力的魔咒是不是正在被默默打破?
女性如今之所以處在一個讓她們略感不適的地位之中,很大一部分原因在于對技術的掌控不如男性,所以她們不能創(chuàng)造和男性一樣多的價值。千百年前女性不知道如何開墾更多土地種植糧食;幾十年前女性不知道如何使用電腦;到今年女性不知道Twitter的算法為什么不能過濾掉那些仇恨言論。
而隨著科技的發(fā)展,阻礙女性獲取技術的門檻正在逐漸被磨平。從生理結構上天然的體力差別,到社會和家庭身份對于時間的占用,直到今天。
我們發(fā)現(xiàn),號召志愿者收集數(shù)據(jù),加上一家愿意幫忙的AI服務企業(yè),女性可以輕易打破Twitter的“男權謊言”——你說算法做不到?她們就去證明算法可以做到。
當AI模型的開發(fā)越來越走向低門檻,當谷歌和百度都在推出小孩子都能使用的模型訓練平臺,這便意味著(綜合來看)開發(fā)經(jīng)驗更少的女性群體也可以創(chuàng)造和利用AI的技術能力。
這也是AI作為工具而言最重要的價值,將以往高密度的經(jīng)驗與智慧集成為人人可以利用的算法,讓馬路殺手像老司機一樣行駛在路上,讓分不清PS和Photoshop的人也能拍出好照片。如今對于算法開發(fā)過程的簡易化,更加提升了AI的工具價值。讓我們感到欣慰的,不僅僅是女性開始利用AI的力量保護自己、為自己發(fā)聲,而是大赦國際的成功是可以復制的,除了那些在社交媒體上被辱罵的女性,其他的弱勢群體其實也可以利用類似的方式發(fā)出聲響和自我拯救。
AI正在保護她,并且還可以保護他們。(作者:腦極體)

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
7月8日立即報名>> 【在線會議】英飛凌新一代智能照明方案賦能綠色建筑與工業(yè)互聯(lián)
-
7月22-29日立即報名>> 【線下論壇】第三屆安富利汽車生態(tài)圈峰會
-
7.30-8.1火熱報名中>> 全數(shù)會2025(第六屆)機器人及智能工廠展
-
7月31日免費預約>> OFweek 2025具身智能機器人產(chǎn)業(yè)技術創(chuàng)新應用論壇
-
免費參會立即報名>> 7月30日- 8月1日 2025全數(shù)會工業(yè)芯片與傳感儀表展
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍皮書》
推薦專題