谷歌推出全新底層架構(gòu)MoR,Transformer有了替代品
前言:大語言模型(LLMs)規(guī)模龐大但效率低下的問題長期備受關(guān)注。盡管模型參數(shù)持續(xù)增長,其在長文本處理中的性能衰減、計(jì)算資源消耗等問題始終未能有效解決。谷歌DeepMind最新提出的MoR架構(gòu),可能為這一困境提供了新的解決路徑。
作者 | 方文三
圖片來源 | 網(wǎng) 絡(luò)
傳統(tǒng)模型的困境局限當(dāng)前性能發(fā)展
長期以來,Transformer架構(gòu)始終作為大型語言模型的核心架構(gòu),然而隨著研究的深入,其固有局限性亦逐漸顯現(xiàn)。
Transformer依賴堆疊網(wǎng)絡(luò)層數(shù)以增強(qiáng)模型性能,但該機(jī)制導(dǎo)致計(jì)算資源呈現(xiàn)平均分配特征,無論輸入token的復(fù)雜程度如何。
簡單token(如連詞、助詞)與復(fù)雜token(如專業(yè)術(shù)語、長句)均被施以同等處理流程,導(dǎo)致大量冗余計(jì)算產(chǎn)生。
此外,在處理長文本序列時(shí),其鍵值緩存(KV緩存)機(jī)制需占用大量內(nèi)存空間,進(jìn)一步制約模型效率的提升。
針對(duì)上述問題,研究者們正持續(xù)探索兩個(gè)關(guān)鍵方向:其一通過權(quán)重共享機(jī)制提升參數(shù)利用效率,其二依據(jù)輸入復(fù)雜度動(dòng)態(tài)分配計(jì)算資源,旨在實(shí)現(xiàn)自適應(yīng)計(jì)算能力。
當(dāng)模型規(guī)模擴(kuò)展至數(shù)千億參數(shù)量級(jí),訓(xùn)練與推理成本已成為制約其廣泛落地的核心瓶頸。
傳統(tǒng)Transformer架構(gòu)對(duì)所有輸入信息采用均質(zhì)化計(jì)算的處理模式,被證實(shí)存在顯著資源冗余。
從理論到實(shí)踐的轉(zhuǎn)變:替代Transformer潛力
基于Transformer的這些局限性,許多非Transformer架構(gòu)應(yīng)運(yùn)而生,如中國的RWKV、Meta的Mega、微軟亞研的 Retnet、Mamba、DeepMind團(tuán)隊(duì)的Hawk和Griffin等。
它們大多在RNN的基礎(chǔ)上,針對(duì)Transformer的缺陷進(jìn)行改進(jìn),試圖研究出更高效的模型結(jié)構(gòu)。
就在最近,KAIST、Mila和谷歌DeepMind團(tuán)隊(duì)等放出重磅炸彈——一個(gè)名為Mixture-of-Recursions(MoR)的全新LLM模型架構(gòu),被業(yè)內(nèi)認(rèn)為有潛力成為“Transformer 殺手”。
MoR首次在單一框架內(nèi)實(shí)現(xiàn)了參數(shù)共享與自適應(yīng)計(jì)算的協(xié)同優(yōu)化,解決了傳統(tǒng)方法只能二者擇一的局限。
該框架將動(dòng)態(tài)token級(jí)路由機(jī)制集成至參數(shù)高效的遞歸Transformer中,形成一種協(xié)同架構(gòu),有望達(dá)成“在避免大型模型成本的同時(shí)獲得其質(zhì)量”的目標(biāo)。
簡而言之,MoR框架能夠依據(jù)每個(gè)token的需求,動(dòng)態(tài)且精確地分配所需計(jì)算資源,在避免資源浪費(fèi)的同時(shí)確保任務(wù)高效完成。
MoR框架(Mixture-of-Recursions)是一個(gè)統(tǒng)一框架,其充分發(fā)掘了遞歸Transformer的能力特性,在預(yù)訓(xùn)練與推理階段為每個(gè)詞元?jiǎng)討B(tài)調(diào)整遞歸步驟。
該框架的核心在于兩個(gè)關(guān)鍵組件:輕量級(jí)路由機(jī)制與KV緩存策略。
其中,輕量級(jí)路由機(jī)制引入了端到端訓(xùn)練的輕量級(jí)路由器,負(fù)責(zé)為每個(gè)詞元分配特定的遞歸深度。
這意味著模型可依據(jù)詞元所需的處理深度,決定共享參數(shù)模塊的遞歸調(diào)用頻次,從而將計(jì)算資源精確導(dǎo)向需求最為迫切之處。
在技術(shù)實(shí)現(xiàn)層面,MoR通過端到端訓(xùn)練輕量級(jí)路由模塊,為每個(gè)token動(dòng)態(tài)分配專屬的遞歸深度。
該機(jī)制依據(jù)每個(gè)token所需的處理深度,決定共享參數(shù)模塊對(duì)其遞歸應(yīng)用的次數(shù),從而實(shí)現(xiàn)計(jì)算資源的精準(zhǔn)投放。
此種基于token的動(dòng)態(tài)遞歸機(jī)制,天然支持遞歸層級(jí)的鍵值(KV)緩存。
該緩存可根據(jù)各token所分配的遞歸深度,選擇性存儲(chǔ)并檢索對(duì)應(yīng)的鍵值對(duì),顯著降低內(nèi)存帶寬壓力,無需后處理即可提升推理吞吐量。
綜上所述,MoR在統(tǒng)一架構(gòu)中同時(shí)實(shí)現(xiàn)了三項(xiàng)關(guān)鍵優(yōu)化:參數(shù)共享、計(jì)算路由與遞歸級(jí)緩存。
此外,采用KV緩存共享策略雖會(huì)輕微影響性能,但能顯著提升內(nèi)存效率。
在內(nèi)存資源受限的部署場景中,此種性能與資源消耗之間的權(quán)衡是可接受的。
這意味著模型能夠依據(jù)每個(gè)詞元的處理需求,精準(zhǔn)地分配計(jì)算資源,從而規(guī)避冗余的計(jì)算消耗。
MoR既能顯著降低驗(yàn)證集困惑度(Perplexity)并提升少樣本(Few-shot)準(zhǔn)確率,亦可在同等訓(xùn)練計(jì)算量與更小模型規(guī)模的前提下,相較現(xiàn)有模型提供更高的吞吐量。
在少樣本學(xué)習(xí)、長文本處理等任務(wù)中的表現(xiàn)已接近Transformer,且計(jì)算效率更具優(yōu)勢(shì),被視作替代Transformer架構(gòu)的有力競爭者。
實(shí)驗(yàn)結(jié)果來看MoR的性能表現(xiàn)亮眼
研究團(tuán)隊(duì)在1.35億至1.7億參數(shù)的多個(gè)模型規(guī)模上進(jìn)行了測試。
結(jié)果表明,在相同訓(xùn)練計(jì)算預(yù)算下,采用MoR架構(gòu)的模型,其參數(shù)量雖較基準(zhǔn)Transformer模型減少近一半,但在多項(xiàng)少樣本學(xué)習(xí)任務(wù)中的平均準(zhǔn)確率達(dá)到43.1%,優(yōu)于基準(zhǔn)模型的42.3%。
尤為重要的是,MoR架構(gòu)具備更高的計(jì)算效率,使其能夠在相同計(jì)算預(yù)算內(nèi)處理更多訓(xùn)練數(shù)據(jù),從而進(jìn)一步提升模型性能。
在固定訓(xùn)練數(shù)據(jù)量的對(duì)比實(shí)驗(yàn)中,特定MoR配置僅需使用基準(zhǔn)模型75%的訓(xùn)練計(jì)算量,性能即超越基準(zhǔn)模型,同時(shí)訓(xùn)練時(shí)間縮短19%,峰值內(nèi)存占用降低25%。
在推理性能方面,MoR架構(gòu)的優(yōu)勢(shì)更為顯著。
其采用的連續(xù)深度批處理技術(shù),可將處于不同計(jì)算階段的token組合至同一批次進(jìn)行處理,因其共享相同參數(shù)塊。
該技術(shù)與模型的早期退出機(jī)制協(xié)同作用,顯著提升了處理吞吐量。
在3.6億參數(shù)規(guī)模的模型測試中,MoR-4配置在特定測試條件下實(shí)現(xiàn)了高達(dá)2.06倍的推理加速。
尤其值得注意的是,盡管模型參數(shù)量縮減近50%,MoR仍展現(xiàn)出更優(yōu)性能。
該優(yōu)勢(shì)源于其顯著提升的計(jì)算效率,從而能夠在相同F(xiàn)LOPs預(yù)算下處理更多訓(xùn)練token。
MoR的提出意味著LLM發(fā)展邏輯的根本性變革
MoR的出現(xiàn)標(biāo)志著AI模型從[規(guī)模擴(kuò)張]向[智能計(jì)算]的演進(jìn)趨勢(shì)。
其動(dòng)態(tài)路由機(jī)制模擬了人類認(rèn)知的[選擇性注意]特性,為開發(fā)更具生物啟發(fā)性的AI系統(tǒng)提供了新思路。
通過動(dòng)態(tài)路由、參數(shù)共享與智能緩存的三重優(yōu)化機(jī)制,MoR重新定義了大模型的效率邊界。
推理速度倍增與內(nèi)存占用減半的突破性進(jìn)展,不僅顯著降低了部署成本,更為復(fù)雜任務(wù)處理確立了新范式。
盡管在大規(guī)模驗(yàn)證與多模態(tài)擴(kuò)展領(lǐng)域仍需深入探索,但MoR已展現(xiàn)出替代Transformer的實(shí)質(zhì)性潛力,或?qū)⒁I(lǐng)下一代AI模型的架構(gòu)革新。
尤為重要的是,MoR為開發(fā)更具認(rèn)知啟發(fā)性的AI系統(tǒng)奠定了基石。
該框架在生成過程中能夠按每個(gè)token自適應(yīng)分配[思考深度]的特性,與語言模型潛在推理及內(nèi)部思考機(jī)制的新興研究高度契合。
這表明MoR可作為關(guān)鍵平臺(tái),用于探索模型如何在保持常規(guī)任務(wù)效率的同時(shí),逐步學(xué)會(huì)對(duì)復(fù)雜問題進(jìn)行更深入的思考。
結(jié)尾:
MoR延續(xù)并深化了這些研究對(duì)AI效率優(yōu)化的探索路徑,即從單一維度的優(yōu)化轉(zhuǎn)向參數(shù)、計(jì)算及內(nèi)存等多維度的協(xié)同優(yōu)化。
這對(duì)于降低大語言模型的部署與應(yīng)用成本具有顯著的實(shí)踐價(jià)值。
總體而言,當(dāng)前階段尚難以斷言MoR能否全面取代Transformer架構(gòu),但其確實(shí)為未來語言模型的設(shè)計(jì)提供了在性能與效率層面均極具發(fā)展?jié)摿Φ难葸M(jìn)方向。
部分資料參考:
炎炎星球:《谷歌DeepMind發(fā)布MoR架構(gòu),推理速度翻倍、內(nèi)存減半,或成Transformer替代方案》
算家云:《Transformer霸權(quán)終結(jié)?谷歌DeepMind推出顛覆性架構(gòu):推理2倍速、參數(shù)減半》
AINLPer:《Google等提出遞歸混合框架:MoR,大幅提升LLM計(jì)算效率》
AI帝國:《Google發(fā)布MoR架構(gòu):2倍推理速度,節(jié)省50%內(nèi)存》
原文標(biāo)題 : 深度丨谷歌推出全新底層架構(gòu)MoR,Transformer有了替代品

發(fā)表評(píng)論
請(qǐng)輸入評(píng)論內(nèi)容...
請(qǐng)輸入評(píng)論/評(píng)論長度6~500個(gè)字
最新活動(dòng)更多
-
即日-9.1立即下載>> 【限時(shí)下載】ADI中國三十周年感恩回饋助力企業(yè)升級(jí)!
-
11月27日立即報(bào)名>> 【工程師系列】汽車電子技術(shù)在線大會(huì)
-
精彩回顧立即查看>> 【在線研討會(huì)】解析安森美(onsemi)高精度與超低功耗CGM系統(tǒng)解決方案
-
精彩回顧立即查看>> 【在線會(huì)議】CAE優(yōu)化設(shè)計(jì):醫(yī)療器械設(shè)計(jì)的應(yīng)用案例與方案解析
-
精彩回顧立即查看>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍(lán)皮書》
-
精彩回顧立即查看>> 7月30日- 8月1日 2025全數(shù)會(huì)工業(yè)芯片與傳感儀表展
推薦專題
- 1 傳魏建軍與賈躍亭合作,長城汽車出海美國
- 2 黃仁勛:與雷軍長期合作,共探AI智駕
- 3 阿里首位程序員,“掃地僧”多隆已離職
- 4 DeepSeek R2加持,中國AI與芯片產(chǎn)業(yè)迎來新一輪協(xié)同進(jìn)化
- 5 六大國產(chǎn)大模型,誰是最強(qiáng)“金融分析師”?|錦緞評(píng)測
- 6 2025年第一支10倍股,來了!
- 7 募資39.85億元!寒武紀(jì)押注大模型芯片與軟件平臺(tái)
- 8 國內(nèi)免費(fèi)版Deep Research上線,秘塔AI深度研究嘗試重塑知識(shí)工作范式
- 9 清庫存?曝英偉達(dá)H20供應(yīng)有限,且沒有復(fù)產(chǎn)計(jì)劃
- 10 賈躍亭再獲 7.5 億元融資,用于新車FF 91 生產(chǎn)交付