深度解讀《人工智能的可解釋性》
可解釋性人工智能的應(yīng)用場景
人工智能的可解釋性為使用它的人,使用它的產(chǎn)業(yè),提供了一種信任的基礎(chǔ)。有了這樣的基礎(chǔ),AI才可以在更廣的范圍內(nèi)發(fā)揮它更大的作用。那當(dāng)不同的人工智能模型組成一個復(fù)雜的系統(tǒng)時,我們該如何體現(xiàn)整個系統(tǒng)的可解釋性?
主講嘉賓:Element AI 聯(lián)合創(chuàng)始人、首席科學(xué)官 Nicolas Chapados博士
舉個例子:
我們使用計算機視覺對圖像進行學(xué)習(xí)和分析,來判斷圖像當(dāng)中哪些是狼,哪些是哈士奇。在左下角的這幅圖里,這個算法錯誤的把一只哈士奇當(dāng)作了狼。這是因為我們在選擇培訓(xùn)數(shù)據(jù),也就是這些圖片的時候,大部份狼的圖片背景中是雪地。于是這個計算機視覺的人工智能算法一下就偵測到了這個非常明顯的區(qū)別,將這個區(qū)別作為他判斷是狼還是哈士奇的一個標(biāo)準(zhǔn),而不是專注于狼和哈士奇面部的一些細(xì)微的區(qū)別。如果我們事前不知道培訓(xùn)數(shù)據(jù)里的這樣的區(qū)別,僅僅基于這個計算機視覺所給我們的結(jié)果,我們非常難發(fā)現(xiàn)機器視覺是如何犯下這樣的錯誤的。
不同的企業(yè)不同的公司,都會遇到類似的問題,那真的可以相信這個人工智能的系統(tǒng)嗎?從整個社會的層面上看,大范圍的使用人工智能的時候,它是否會造成一個我們都無法想象的結(jié)果?
正確的處理這些疑問和質(zhì)疑的方式是,我們必須將人工智能的可解釋性也涉及到這些系統(tǒng)和算法中去。
舉個例子:

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
即日-9.1立即下載>> 【限時下載】ADI中國三十周年感恩回饋助力企業(yè)升級!
-
即日-9.16點擊進入 >> 【限時福利】TE 2025國際物聯(lián)網(wǎng)展·深圳站
-
10月23日立即報名>> Works With 開發(fā)者大會深圳站
-
10月24日立即參評>> 【評選】維科杯·OFweek 2025(第十屆)物聯(lián)網(wǎng)行業(yè)年度評選
-
11月27日立即報名>> 【工程師系列】汽車電子技術(shù)在線大會
-
12月18日立即報名>> 【線下會議】OFweek 2025(第十屆)物聯(lián)網(wǎng)產(chǎn)業(yè)大會
推薦專題