訂閱
糾錯
加入自媒體

深度丨前OpenAI聯(lián)創(chuàng)Ilya Sutskever:情感是終極算法,盈利需價值轉(zhuǎn)向

前言

當(dāng)整個AI行業(yè)還在算力堆砌的賽道上狂飆時,一位見證了深度學(xué)習(xí)從萌芽到爆發(fā)的核心親歷者,卻敲響了轉(zhuǎn)向的警鐘。

他是Ilya Sutskever,OpenAI聯(lián)合創(chuàng)始人、GPT系列核心締造者,如今創(chuàng)辦了專注于安全超級智能的SSI公司。

這份兼具技術(shù)深度與人文關(guān)懷的思考,不僅為AI從規(guī)模競賽轉(zhuǎn)向價值深耕提供了全新坐標(biāo)系,更讓業(yè)界重新審視技術(shù)演進(jìn)的本質(zhì)與方向。

作者 | 方文三

圖片來源 |  網(wǎng) 絡(luò) 

圖片

Scaling時代落幕,從確定性擴張到創(chuàng)新瓶頸

[2012年到2020年是研究時代,2020年到2025年是Scaling時代,而現(xiàn)在,我們正回到擁有強大計算機的研究時代。]Ilya的這一論斷,精準(zhǔn)概括了AI行業(yè)的迭代邏輯。

Scaling時代的核心是一套[低風(fēng)險配方],將算力、數(shù)據(jù)按比例投入特定規(guī)模的神經(jīng)網(wǎng)絡(luò),就能穩(wěn)定獲得效果提升。

這種模式讓大公司趨之若鶩,無需復(fù)雜創(chuàng)新,只需持續(xù)加碼資源,就能看到明確回報。

預(yù)訓(xùn)練的突破更是印證了這套邏輯,海量自然數(shù)據(jù)如同世界投射在文字上的倒影,模型通過吸收這些數(shù)據(jù),就能在各類任務(wù)中展現(xiàn)出基礎(chǔ)能力。

但這套邏輯的短板早已顯現(xiàn),數(shù)據(jù)的有限性,預(yù)訓(xùn)練再強大,也終有耗盡優(yōu)質(zhì)數(shù)據(jù)的一天。

其次是算力堆砌的邊際效益遞減,[單純把規(guī)模擴大100倍,不會帶來質(zhì)的飛躍]

Ilya直言,當(dāng)前算力已經(jīng)達(dá)到驚人規(guī)模,但模型的核心能力并未隨之實現(xiàn)突破性提升,反而陷入了同質(zhì)化競爭的困境。

更致命的是,Scaling模式催生了[路徑依賴],當(dāng)所有公司都聚焦于擴大規(guī)模,行業(yè)便陷入了[公司數(shù)量多于有價值想法]的尷尬境地。

硅谷流傳的[想法廉價,執(zhí)行至上]在此時失效,不是執(zhí)行不重要,而是真正的創(chuàng)新想法已經(jīng)成為稀缺資源。

Ilya觀察到,如今行業(yè)的瓶頸不再是算力,而是缺乏能突破現(xiàn)有范式的底層創(chuàng)新。

圖片

泛化能力的鴻溝,AI為何[高分低能]

[現(xiàn)在的AI就像一個練習(xí)了10000小時編程競賽的學(xué)生,能快速解決所有見過的題目,卻無法在真實場景中觸類旁通。]

Ilya用一個生動的類比,點出了當(dāng)前AI的核心缺陷:泛化能力遠(yuǎn)遜于人類。

這種缺陷最直觀的表現(xiàn),是評測分?jǐn)?shù)與真實表現(xiàn)的巨大斷層。

模型可以在編程競賽、學(xué)術(shù)測試中取得優(yōu)異成績,卻會在簡單的實際任務(wù)中犯低級錯誤。

修復(fù)一個bug卻引入另一個,在兩個錯誤之間反復(fù)橫跳;能寫出復(fù)雜代碼,卻缺乏基本的架構(gòu)審美和調(diào)試邏輯。

強化學(xué)習(xí)(RL)訓(xùn)練讓模型變得[視野狹隘],為了迎合特定評測指標(biāo),公司會專門設(shè)計RL訓(xùn)練環(huán)境,導(dǎo)致模型在優(yōu)化單一能力的同時,喪失了基礎(chǔ)的靈活應(yīng)變能力。

預(yù)訓(xùn)練的海量數(shù)據(jù)優(yōu)勢反而成了枷鎖,模型通過死記硬背掌握了各類技巧,卻沒有真正理解背后的邏輯,自然無法遷移到新場景。

這種差距源于兩點,一是人類的樣本效率極高,能從極少案例中提取核心邏輯二是人類擁有更優(yōu)的底層學(xué)習(xí)機制,而非依賴數(shù)據(jù)堆砌。

Ilya進(jìn)一步指出,人類的樣本效率優(yōu)勢可能來自進(jìn)化賦予的先驗知識,視覺、聽覺、運動能力等經(jīng)過億萬年進(jìn)化,已經(jīng)形成了高效的內(nèi)置機制。

但在語言、數(shù)學(xué)、編程等新興領(lǐng)域,人類依然表現(xiàn)出更強的學(xué)習(xí)能力,這說明真正的關(guān)鍵是人類擁有更先進(jìn)的機器學(xué)習(xí)算法,而這正是當(dāng)前AI缺失的核心。

破局關(guān)鍵:情感作為終極價值函數(shù)

[一個失去情感處理能力的人,即使智商正常,也會變得無法做出任何有效決策,選襪子要花幾小時,還會做出糟糕的財務(wù)選擇。]

Ilya引用的神經(jīng)科學(xué)案例,揭示了一個顛覆性觀點:情感并非理性的對立面,而是人類內(nèi)置的[終極價值函數(shù)],是智能高效運作的基石。

在當(dāng)前的AI訓(xùn)練中,強化學(xué)習(xí)的常規(guī)做法是[結(jié)果導(dǎo)向],模型完成整個任務(wù)后,才能獲得一次性評分反饋。

這意味著,對于耗時較長的任務(wù),模型在最終結(jié)果出來前無法獲得任何有效學(xué)習(xí)信號,效率極低。

而情感對應(yīng)的價值函數(shù),恰恰解決了這一問題。

它能在任務(wù)過程中即時反饋[做得好或不好],讓模型無需等待最終結(jié)果就能調(diào)整方向。

比如下棋時丟了關(guān)鍵棋子,人類瞬間就能意識到失誤,無需等到棋局結(jié)束。

編程時探索的方向出錯,開發(fā)者很快就能感知到[此路不通],及時回溯。

這種即時反饋機制,能大幅提升學(xué)習(xí)效率,讓模型避免在無效路徑上浪費資源。

Ilya堅信,[情感價值函數(shù)未來一定會被廣泛使用,簡單的東西往往能在更廣泛的情境下發(fā)揮作用]。

更重要的是,人類的情感價值函數(shù)具有極強的魯棒性。

除了藥物成癮等極少數(shù)例外,這套機制能在不同場景下穩(wěn)定運作,指導(dǎo)人類做出相對合理的決策。

而當(dāng)前AI的價值判斷體系高度依賴人工設(shè)計的獎勵函數(shù),既缺乏靈活性,又容易出現(xiàn)[獎勵黑客]問題,為了迎合指標(biāo)而偏離真實需求。

Ilya強調(diào),情感價值函數(shù)并非要讓AI擁有人類的喜怒哀樂,而是要借鑒其核心邏輯。

構(gòu)建一套通用、穩(wěn)健的即時反饋機制,讓模型像人類一樣高效學(xué)習(xí)和決策,這不是對現(xiàn)有技術(shù)的小修小補,而是對AI訓(xùn)練范式的根本性革新。

超級智能未來的時間線、對齊與均衡

[未來5-20年,可能會出現(xiàn)具備人類級別學(xué)習(xí)能力、能走向超智能的系統(tǒng)。]

在他看來,超級智能的核心定義不是[能做人類所有工作],而是[能夠?qū)W會做所有工作]的成長型心智。

這種智能體一旦被部署到經(jīng)濟體系中,將引發(fā)前所未有的快速增長。

高效的學(xué)習(xí)能力結(jié)合廣泛的應(yīng)用場景,會形成強大的經(jīng)濟驅(qū)動力。

但增長速度并非無限快,[世界規(guī)模龐大,實體事物的運轉(zhuǎn)有其自身節(jié)奏,不同國家的規(guī)則差異也會帶來影響]。

對齊問題是超級智能發(fā)展的核心命題,Ilya提出了一個極具人文關(guān)懷的觀點:[構(gòu)建關(guān)心所有感知生命的AI,比只關(guān)心人類的AI更容易,也更根本。]

未來的感知體中,AI可能占絕大多數(shù),若只聚焦人類利益,反而可能導(dǎo)致對齊失效。

而基于同理心的對齊,如同人類通過鏡像神經(jīng)元理解他人,是更穩(wěn)健的選擇,因為它符合高效的認(rèn)知邏輯。

這種對齊不是簡單的[設(shè)定規(guī)則],而是要將[關(guān)心感知生命]內(nèi)化為AI的底層價值。

Ilya認(rèn)為,當(dāng)前對齊的難點在于AI學(xué)習(xí)和優(yōu)化人類價值觀的能力脆弱,本質(zhì)上還是泛化能力不足的問題。

一旦AI的泛化能力達(dá)到人類水平,對齊的難度也會大幅降低。

對于長期均衡,Ilya提出了一個大膽的設(shè)想:人類與AI的部分融合。

通過類似[增強版Neuralink]的技術(shù),讓人類能直接理解AI的認(rèn)知,彌合物種間的理解鴻溝。

[當(dāng)AI處于某種情境時,人類也能完全卷入其中,這可能是終極平衡的答案。]

而在市場層面,Ilya預(yù)判,未來的AI行業(yè)不會被單一巨頭壟斷,而是會走向?qū)I(yè)化分工。

[競爭喜歡專業(yè)化,就像生物進(jìn)化中的生態(tài)位,不同的AI公司會專注于不同的復(fù)雜領(lǐng)域,形成多元的行業(yè)生態(tài)。]

那些繼續(xù)沿用Scaling思路的公司,可能會獲得驚人收入,但很難實現(xiàn)高額利潤,同質(zhì)化競爭會不斷壓縮利潤空間。

研究品味是頂尖科學(xué)家的底層邏輯

[丑陋在研究中沒有立足之地,好的研究需要兼具美、簡潔、優(yōu)雅,以及來自大腦的正確靈感。]當(dāng)被問及[什么是好的研究品味]時,Ilya的回答直指核心。

在他看來,頂尖的AI研究離不開對人類本質(zhì)的正確觀察。

人工神經(jīng)元的想法源于大腦的結(jié)構(gòu),分布式表征的靈感來自大腦的學(xué)習(xí)機制,這些成功的創(chuàng)新都不是憑空想象,而是對自然智能的深刻借鑒。

但這種借鑒不是盲目模仿,而是提取核心邏輯。

比如大腦的神經(jīng)元數(shù)量龐大,所以模型需要足夠的參數(shù)規(guī)模;大腦通過調(diào)整神經(jīng)元連接學(xué)習(xí),所以模型需要局部學(xué)習(xí)規(guī)則。

這種[自上而下的信念],是支撐研究者穿越挫折的關(guān)鍵。

Ilya回憶,在研究過程中,實驗結(jié)果與理論預(yù)期相悖是常事,此時不能輕易放棄,而是要基于對[美與簡潔]的判斷,堅持調(diào)試方向。

[有時候數(shù)據(jù)告訴你錯了,但可能只是實驗有bug,而不是想法本身有問題。]

這種品味還體現(xiàn)在對研究方向的選擇上。在Scaling時代,所有人都聚焦于擴大規(guī)模,而Ilya卻敏銳地看到了泛化能力和價值函數(shù)的核心地位。

這種洞察力,源于對AI本質(zhì)的深刻思考,智能的核心不是規(guī)模,而是高效的學(xué)習(xí)和決策機制。

Ilya的研究哲學(xué),本質(zhì)上是對[簡單性]的追求。

復(fù)雜的技術(shù)可能在特定場景下有用,但只有簡單、通用的底層邏輯,才能在更廣泛的情境中發(fā)揮作用。

這與他對情感價值函數(shù)的推崇一脈相承,情感看似簡單,卻能成為人類智能的核心支柱。

結(jié)尾:

Ilya的訪談,本質(zhì)上是對AI行業(yè)的一次[撥亂反正]。

當(dāng)所有人都沉迷于算力、數(shù)據(jù)的規(guī)模競賽時,需要有人提醒:智能的本質(zhì)是泛化與高效,技術(shù)的突破源于底層創(chuàng)新,而不是資源的堆砌。

未來的AI競爭,不再是算力的比拼,而是想法的較量;不再是規(guī)模的擴張,而是價值的深耕。

超級智能的到來或許還有5-20年,但AI行業(yè)的轉(zhuǎn)型已經(jīng)迫在眉睫。

正如Ilya所言,[逐步部署和讓世界感受AI的能力,比純粹的思考更重要]。

部分資料參考:經(jīng)緯創(chuàng)投:《前OpenAI 聯(lián)創(chuàng) Ilya Sutskever:未來,AI公司可能根本賺不到利潤》,混沌學(xué)園:《AI大神伊利亞宣告 Scaling時代終結(jié)!斷言AGI的概念被誤導(dǎo)》,Web3天空之城:《Ilya Sutskever 重磅3萬字訪談:AI告別規(guī);瘯r代,回歸[研究時代]的本質(zhì)》

       原文標(biāo)題 : 深度丨前OpenAI聯(lián)創(chuàng)Ilya Sutskever:情感是終極算法,盈利需價值轉(zhuǎn)向

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號