侵權投訴
訂閱
糾錯
加入自媒體

不只有理想小鵬,元戎啟行VLA輔助駕駛,也來了

2025-08-27 10:14
賽博汽車
關注

作者 | 王凌方

編輯 | 邱鍇俊

一輛能對盲區(qū)風險識別、讀懂路標、與你對話的汽車正駛入現(xiàn)實。

2025年8月26日,元戎啟行發(fā)布全新一代輔助駕駛平臺——DeepRoute IO 2.0,該平臺搭載自研的VLA(Vision-Language-Action)模型。

VLA模型融合了視覺感知、自然語言理解和動作決策能力,其將大語言模型的推理能力應用于智能駕駛領域,增加了空間語義理解,形成了推理能力,提高了應對復雜路況的能力。

在此次發(fā)布會上,元戎啟行同步展示VLA模型的4大功能:空間語義理解、異形障礙物識別、文字類引導牌理解、記憶語音控車,這些功能將根據(jù)實際部署節(jié)奏逐步釋放。

從元戎啟行此前客戶來看,這意味著長城汽車、Smart等品牌可能也會很快迎來VLA輔助駕駛上車。

01

VLA模型的三重突破

在VLA模型出現(xiàn)之前,行業(yè)主流的基于CNN(卷積神經(jīng)網(wǎng)絡)實現(xiàn)BEV(鳥瞰圖)的端到端系統(tǒng),長期存在三大難以突破的瓶頸:盲區(qū)感知受限、缺乏邏輯推理能力、泛化能力不足。

對此,元戎啟行CEO周光在發(fā)布會上舉了一個例子:BEV(鳥瞰視角)架構如同玩坦克大戰(zhàn),墻后的物體看不到就被認為不存在,真實的視角更像CS(游戲《反恐精英》),人類司機能夠通過空間關系預判風險并謹慎通過,這是CNN系統(tǒng)無法做到的。

相比CNN的端到端模型,VLA模型主要有以下幾個突破。

一是,思維鏈推理:算得比人類更準。

VLA模型的核心優(yōu)勢在于其思維鏈(Chain of Thought, CoT)能力。它能夠進行長時序因果推理,將離散信息串聯(lián)分析,從而做出更擬人化的決策。

傳統(tǒng)端到端模型駕駛經(jīng)驗單一,只能推理幾秒內(nèi)的路況;而VLA支持高級語義理解和長時序推理,擅長應對復雜路況。

二是,海量知識庫:自帶“駕駛百科全書”。

通過互聯(lián)網(wǎng)規(guī)模的數(shù)據(jù)蒸餾與訓練,VLA模型積累了豐富的常識知識。

這種知識泛化能力是傳統(tǒng)系統(tǒng)無法企及的。傳統(tǒng)方案需要依賴地圖數(shù)據(jù)更新,至少需要一周時間處理新出現(xiàn)的交通標識,而VLA模型可以實時理解。

三是,多模態(tài)融合:視覺+語言+動作的協(xié)同。

VLA模型首次實現(xiàn)了視覺感知、語言理解和動作決策的深度融合。它不僅能“看見”道路,還能“讀懂”路標,“理解”指令,并做出合理決策。

這種融合讓系統(tǒng)能夠處理更加復雜的場景:識別盲區(qū)風險、理解文字引導牌、支持自然語音交互,能夠更好地適應復雜多變的真實道路環(huán)境。

02

四大功能重新定義智能駕駛

發(fā)布會上,周光詳細介紹了VLA模型的四大核心功能,這些功能并非單純的技術展示,而是針對真實駕駛中的痛點場景設計,將根據(jù)量產(chǎn)節(jié)奏逐步應用。

空間語義理解:駕駛“透視眼”

空間語義理解是VLA模型的最大亮點。在公交車遮擋、復雜路口、橋洞等視野受限的場景中,VLA能夠感知潛在風險,主動對盲區(qū)進行“預防性預判”。系統(tǒng)可在風險出現(xiàn)前提前減速、穩(wěn)妥通行,具備高度擬人化的防御性駕駛策略。

異形障礙物識別:駕駛“百事通”

系統(tǒng)能夠識別并靈活應對各種非結構化障礙物,不再僅提示“障礙物”,而是具體識別出物體類型,并采取相應的避讓策略。

文字類引導牌理解:駕駛“翻譯官”

VLA模型能夠準確解析潮汐車道、公交專用道等道路文字信息,減少誤判與違章,讓復雜路況通行如“開卷考試”般從容。

記憶語音控車:個性化交互體驗

系統(tǒng)支持自然語言指令交互,并能夠?qū)W習用戶偏好,實現(xiàn)個性化駕駛體驗。用戶可通過語音指令控制車輛,系統(tǒng)會優(yōu)先考慮安全,其次才是用戶指令與原定規(guī)劃。

03

商業(yè)化落地前景樂觀

技術突破的背后,是元戎啟行在商業(yè)化領域的堅實積累。截至2025年8月,元戎啟行已實現(xiàn)近10萬輛搭載城市領航輔助系統(tǒng)的車型交付,涵蓋SUV、MPV、越野車等多種品類,合作車型超過10款,進入行業(yè)“10萬級別交付”第一梯隊。

這些量產(chǎn)成果,為VLA模型的應用奠定了基礎,畢竟大模型也需要真實路況數(shù)據(jù)持續(xù)優(yōu)化,而10萬輛車的行駛數(shù)據(jù),正是VLA改進的重要支撐。

DeepRoute IO 2.0平臺作為VLA模型的載體,以“多模態(tài)+多芯片+多車型”為核心設計理念,可面向多種主流乘用車平臺開展定制化部署。

傳感器適配方面,該平臺可同時支持激光雷達和純視覺方案,用戶可根據(jù)車型定位進行選擇,高端車型用激光雷達提升精度,中端車型靠純視覺控制成本。

車型覆蓋方面,周光認為,VLA模型完全可適配15萬元以上車型,10萬元級車型通過算力優(yōu)化也有望搭載。

周光透露,2025年元戎已達成5個車型的VLA模型的定點合作。

不過,VLA模型仍處于發(fā)展階段。周光表示,VLA目前還未完全實現(xiàn)思維鏈(COT),這是關鍵差距。長遠來看,語言和推理能力是實現(xiàn)完全無人化自動駕駛的核心。比如遇到“左轉(zhuǎn)不受燈控”這種臨時標識,依賴地圖更新是不夠的,第一次遇到就需實時理解。VLA在這條路上任重道遠,需要更多技術沉淀。“特斯拉之所以投入十倍算力和參數(shù),正是因為GPT架構是明確方向,CNN無法支撐這種擴展。”

除此之外,元戎啟行還有更為宏大的目標。根據(jù)其Road AGI 戰(zhàn)略,VLA 模型不僅將應用于乘用車,還將拓展至 Robotaxi 業(yè)務,從道路場景拓展到小區(qū)、電梯、辦公室等室內(nèi)外環(huán)境,讓機器人擺脫遙控或巡線依賴,實現(xiàn)真正的自主移動。

“我們將持續(xù)推動RoadAGI業(yè)務,實現(xiàn)“AGI for Robot”,最終打開物理世界的通用人工智能的大門。”周光最后說道。

-END-

       原文標題 : 不只有理想小鵬,元戎啟行VLA輔助駕駛,也來了

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    智能汽車網(wǎng) 獵頭職位 更多
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號