訂閱
糾錯
加入自媒體

深度學(xué)習(xí)三巨頭之Yoshua Bengio暢談AI如何才能說“人話”

人工智能深度學(xué)習(xí)的研究中,科學(xué)家們發(fā)現(xiàn)語言學(xué)習(xí)是其中最為復(fù)雜的領(lǐng)域,語言本身可表達表層意思,也能表達深層語義,因此機器的語言理解能力不僅包括描述能力,也包括解讀和舉一反三的能力,語言的復(fù)雜性與人類文明的演變息息相關(guān),因此科學(xué)家們在構(gòu)建語言學(xué)習(xí)模型的同時,也開始將研究焦點從語言本身擴展到語言的歷史、文明的演進等方面,本期焦點人物YoshuaBengio正是該領(lǐng)域的佼佼者。

本期編譯文章來自于Yoshua Bengio于2018年發(fā)表的關(guān)于“人工智能如何理解語言”的演說。Yoshua Bengio將會講述人工智能在語言理解方面達到人類水平的要點,并且介紹了他引以為豪的“人工智能娃娃游戲平臺”,且看他獨樹一幟的學(xué)術(shù)觀點!

oshuaBengio是深度學(xué)習(xí)三大學(xué)術(shù)巨頭最純粹的學(xué)術(shù)派泰斗級人物,蒙特利爾大學(xué)計算機科學(xué)與運算研究系教授、蒙特利爾大學(xué)算法學(xué)院MILA院長, “人工智能娃娃游戲平臺(BabyAIgame)”發(fā)起人。

【算力觀點】

語言學(xué)習(xí)面臨兩大主要難題:缺乏高度接近人腦思維的訓(xùn)練模型以及所需算力成本高。Bengio博士提出的“意識先驗”模型了模仿人腦的認(rèn)知系統(tǒng)并且過濾不參與思考過程的信息,有望突破語言學(xué)習(xí)模型的瓶頸以及拓寬人工智能在語言學(xué)習(xí)領(lǐng)域的應(yīng)用范圍。

強人工智能的實現(xiàn)當(dāng)然離我們很遠,但關(guān)于人工智能的道德倫理問題的討論從來沒有停止過,當(dāng)人工智能也擁有“意識”時將引出兩方面的問題,首先是人工智能在法律意義上的社會身份,其次是它帶來的潛在威脅,需要全社會共同關(guān)注。

機器學(xué)習(xí)人類語言的步驟:先搞懂歷史,再學(xué)習(xí)語言

一直以來人們都嚴(yán)重低估了處理語言學(xué)習(xí)的難度,甚至有一些研究已經(jīng)在往錯誤的方向發(fā)展——依靠非常龐大的語料庫。

僅僅在語料庫的基礎(chǔ)訓(xùn)練深度學(xué)習(xí)模型是不夠的,造成的后果是,很多模型訓(xùn)練的效果只能是“捕獲”粗糙的信息,翻譯出來的句子意思詞不達意,而優(yōu)秀的深度學(xué)習(xí)可以預(yù)測基于句子中的其他部分。

在語言理解能力的層次上,初級和高級之間的深層差異是“常識”,以威諾格拉德模式測試(圖靈測試的另一個版本)為例,通過提問的方式測試機器是否具備人類的思維能力,比如解讀句子,針對“女人停止吃藥因為她們懷孕了”,問題將會是‘“她們”指的是什么?是女人還是藥?’,而如果將“懷孕”改為“患了癌癥”,答案將會不一樣。

機器達到和人類同等水平的語言理解能力是有可能的,但我們首先要明白當(dāng)我們?nèi)ダ斫饩渥踊蛘呶臋n的時候,我們的大腦到底經(jīng)歷了什么?

根據(jù)研究發(fā)現(xiàn),答案是“知識”,但現(xiàn)有的方法仍然存在局限性。

以學(xué)習(xí)外星人的語言為例,學(xué)習(xí)外星語言的過程通常是觀察他們的互動以及構(gòu)建學(xué)習(xí)模型——關(guān)于他們的互動和語言文本關(guān)系的模型,但僅僅憑零碎的單詞或者詞組信息是不夠的,必須理解它們的語境和意圖。

解決的方法是通過結(jié)合語境升級訓(xùn)練模型,把信息的前因后果考慮進去。但這將會是難度極高的語言學(xué)習(xí)模型!因為我們還需要去理解外星人的社會形態(tài)。

基于這個邏輯,需要首先搭建模擬外部世界的學(xué)習(xí)模型,用于理解人與人之間的互動行為,理解外部世界是如何運作的,最后再回到語言學(xué)習(xí)的部分,最終將模糊語言與實體世界結(jié)合起來。

外部世界模型和語言學(xué)習(xí)模型的搭建應(yīng)同步進行,原因是來自人類文明史的啟發(fā),在人類發(fā)展的進程中文明和語言密不可分,初級社會向高級社會演變的同時,語言也從個體化走向社區(qū)化,語言的體系也變得更加的復(fù)雜多樣,反過來也促進著人類社會的進步。

機器也要“快思慢想”:構(gòu)造仿人腦的認(rèn)知系統(tǒng)

諾貝爾經(jīng)濟學(xué)家Kahenman在《快思慢想》中提出人腦的認(rèn)知系統(tǒng)分為一類認(rèn)知系統(tǒng)和二類認(rèn)知系統(tǒng)。

一類認(rèn)知系統(tǒng)負(fù)責(zé)完成可以快速完成的、無意識的動作,比如口渴時把水杯拿起來喝水,但某些情況下可能導(dǎo)致結(jié)果不嚴(yán)謹(jǐn),由于一類認(rèn)知系統(tǒng)不處理語言信息,只能識別出眼前的電話,而不能解釋為什么認(rèn)為它是電話。

二類認(rèn)知系統(tǒng)則相反,負(fù)責(zé)耗時長、有意識的動作,所以下至語言,上至編程,它都能Hold得住。人類在學(xué)習(xí)計算機科學(xué)和邏輯學(xué)當(dāng)中正是大量的用到了二類認(rèn)知系統(tǒng),而基于符號學(xué)的人工智能正往二類認(rèn)知系統(tǒng)的方向靠攏。

兼具兩個系統(tǒng)優(yōu)點的人工智能是我們要實現(xiàn)的,這樣的系統(tǒng)是接地氣的語言學(xué)習(xí)模型,它將是未來研究的主要方向,簡單來說,這樣的學(xué)習(xí)模型在信息覆蓋面方面是無死角的,通過細(xì)致入微的觀察周邊環(huán)境以及人的活動,將這些外部信息和語言聯(lián)系在一起。

圖片來源:論文《Grounded Language Learning in a Simulated 3D World》(如圖:人工智能體接收到文本指令后,在不同的場景中嘗試完成指定任務(wù))

大家?guī)缀醵荚谔剿鳌白罱拥貧狻钡恼Z言學(xué)習(xí)模型,比如通過深度強化學(xué)習(xí)模型,人工智能體在虛擬場景下接受指令完成各類任務(wù),智能體將模糊語言和具體實體場景聯(lián)系起來的能力越來越強,意味著語言能力也越來越強。

人工智能體在訓(xùn)練中會主動觀察,而且它的行為基本不被干預(yù),訓(xùn)練的效果只是被實驗者持續(xù)觀察,這樣的框架將是未來語言學(xué)習(xí)模型的主流方向。

但這方面的語言學(xué)習(xí)研究因為還停留在虛擬環(huán)境實施而備受質(zhì)疑,批評者認(rèn)為不在真實環(huán)境中測試的研究都是耍流氓。

實際上很多人操之過急了,真正懂“人話”的人工智能離我們還十分遙遠,這可是人類的終極目的呀。

我們步子不應(yīng)該邁太大,小目標(biāo)是搭建通用的學(xué)習(xí)機制和框架,讓人工智能在虛擬環(huán)境中應(yīng)對自如之后(走路),長遠再考慮于實際環(huán)境中執(zhí)行(跑步)的分步走實施才是上上策。

1  2  下一頁>  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號