百度AI牽手羅技,背后隱藏了什么野心?
羅技和百度AI這對跨界組合,正在重新定義語音輸入。
4月13日,全球著名云周邊設備供應商羅技推出了一款“語音鼠標”,在百度AI的優(yōu)先賦能下,用戶點擊鼠標上的語音鍵就能進行語音輸入,不僅在PC端實現(xiàn)了中英文自由夾雜語音輸入,還可以實時進行多種語言的語音翻譯。
其實類似的概念并非是羅技首創(chuàng)。早在兩年多前就出現(xiàn)了主打“語音輸入”的鍵鼠類產(chǎn)品,諸如“智能鼠標”的概念也被多家品牌借用,但無一成為現(xiàn)象級的爆款產(chǎn)品,PC端語音輸入的用戶習慣也無從談起。
百度AI為何要在這個時候進行跨界,并選擇牽手羅技這樣的市場領(lǐng)導者,背后到底隱藏了什么樣的野心?
01 知易行難的語音輸入
人類對語音輸入似乎有著天生的執(zhí)念。
早在2000年前后,個人電腦還屬于少數(shù)人的玩物,IBM推出的軟件工具ViaVoice就開始風靡全球。按照IBM的設想,ViaVoice將在人與機器之間擔當“翻譯”,只要一句話就能編排文本格式、控制桌面、操作程序、發(fā)送Email……
雖然IBM解放雙手的革命未能如愿,卻為整整一代人種下了“動口不動手”的交互理念。比如在2018年的時候,羅永浩推出了宣稱是“下一代個人電腦”的TNT,試圖將IBM講述的“美麗童話”從傳說變成現(xiàn)實。遺憾的是,老羅的TNT乃至后面推出的“智能鼠標”,都和ViaVoice一樣成了被懷舊的對象。
為何語音輸入一度成了懸而未決的世紀難題?可以找到三個直接相關(guān)的痛點。
一是連續(xù)語音輸入的“尷尬”。
語音輸入并非沒有落地的場景,和智能音箱的語音交互、聊天時的語音識別等等,可以說是屢見不鮮的場景,然而切換到辦公時長篇幅的連續(xù)輸入,現(xiàn)有的語音識別模型常常出現(xiàn)“宕機”的問題。
時間追溯2015年,注意力模型已經(jīng)是語音識別的主流技術(shù),在語音識別的準確率方面有了突破性的進展,但注意力模型大多是基于整句的建模,通過機器學習選擇和當前建模單元最匹配的特征,導致句子越長識別難度就越大,出錯的概率也就越高,同時還伴隨著較長的用戶等待時間。
二是遠場語音識別的不足。
網(wǎng)上流傳著使用TNT工作站的段子:想要在辦公室里用語音操作TNT,先要提前喊一聲“安靜”,讓周邊的同事自動進入到消聲狀態(tài),不然TNT可能不知道是誰在說話,語音識別的準確率讓人堪憂。
背后牽涉到的是遠場語音識別技術(shù),如果目標聲源距離拾音器比較遠,將導致目標信號衰減嚴重,加上嘈雜的外部環(huán)境制造了太多的干擾信號,最終導致信噪比較低、語音識別性能比較差。我們已經(jīng)習慣在手機上對著麥克風說話,但不可能以趴在電腦上的姿勢對著屏幕進行語音輸入。
三是語言混合輸入的難題。
即使不考慮長句子連續(xù)輸入和遠場識別的問題,日益進化的語言習慣也一度制約語音輸入的普及。就像很多人在工作中常常出現(xiàn)中英詞匯混用的情況,或者有時候飚一句方言,都可能難倒識別工具。
盡管一些語音識別工具推出了多種語言的識別模型,可在過去很長一段時間里,需要用戶先手動切換至想要識別的語言,比如你想要用四川話進行語音輸入,先要到輸入法的設置中將語言設定為四川話,說普通話的時候再去切換回來。不僅進一步增加了用戶的學習成本,體驗也不盡如人意。
在種種待解痛點的制約下,語音輸入的想象固然美好,但前提是進行一場技術(shù)上的長征。可以佐證的是,微軟剛剛以197億美元的價格收購了Siri背后的語音技術(shù)玩家Nuance,計劃將Nuance的語音識別技術(shù)和旗下其他產(chǎn)品整合,以接棒在技術(shù)和場景上落后而被迫默默退場的Cortana。
02 百度AI的三步走戰(zhàn)略
而在語音技術(shù)的賽道上,百度已經(jīng)奔跑了十年。
2010年百度正式成立了語音團隊,主要研發(fā)百度語音識別、語音合成等在內(nèi)的一系列核心技術(shù),并逐步將百度的語音技術(shù)應用于小度智能音箱、百度輸入法、小度車載助手、百度智能語音呼叫中心等產(chǎn)品。
不過在PC端語音輸入的話題上,百度AI在很長時間里并未追逐“智能硬件”的風口,默默制定了語音技術(shù)的三步走戰(zhàn)略:
第一階段,語音識別算法的持續(xù)打磨。
為了解決連續(xù)語音輸入的痛點,百度AI的工程師們在注意力模型的基礎上,創(chuàng)新性地提出了流式多級截斷注意力模型SMLTA,利用CTC算法對連續(xù)語音流進行截斷,然后對每一個小段的語音進行建模,把原來整句的建模,變成了局部語音小段的建模。這樣用戶話音一落就可以拿到識別結(jié)果,保證了最佳的用戶體驗。
同時百度AI還針對語言混合輸入進行了算法優(yōu)化,羅技推出的“語音鼠標”VOICE M380就支持8種語言的語音翻譯,首次通過羅技鼠標在PC上實現(xiàn)了中英文自由夾雜語音輸入,以及粵語、四川話、東北話、河南話等7種方言免切換混合輸入。
第二階段,一體化的端到端建模技術(shù)。
市場上常見的遠場語音識別技術(shù),往往將麥克風陣列作為拾音器,然后利用多通道語音信號處理技術(shù)增強目標信號。這種先語音增強后語音識別的思路,在一定程度上提高了識別的準確率,但增強目標和優(yōu)化目標可能并不一致。
百度AI的思路是“語音增強和語音聲學建模一體化”的端到端建模,并提出了基于復數(shù)CNN的遠場端到端建模方案,利用復數(shù)CNN 網(wǎng)絡挖掘生理信號本質(zhì)特征的特點,直接對原始的多通道語音信號進行多尺度多層次的信息抽取,避免了由于定位出錯而導致識別準確率急劇下降的問題,最終遠場語音識別的錯誤率降低了30%以上。
第三階段,自研芯片加速產(chǎn)業(yè)化落地。
語音輸入的隱形制約還有算力和功耗。在語音技術(shù)從云端競爭向芯片端延伸的趨勢下,算力直接關(guān)系著用戶體驗,但傳統(tǒng)芯片的平均功耗在1W以上,算力和功耗的兩難,進一步制約了語音輸入的應用場景。
在提出端到端的一體化方案后,百度AI將目光瞄向了芯片端。在2019年發(fā)布了首款針對遠場語音交互研發(fā)的鴻鵠芯片,通過端到端的軟硬一體化框架,將所有語音交互任務集中到一顆低功耗語音交互芯片上,提取的語音特征直接在云端進行高精準識別。目前鴻鵠芯片的平均功耗只有100mw,完全滿足3C產(chǎn)品0.5W的待機標準。
和智能語音同時進化的,還有百度AI的機器翻譯,過去十年中在大規(guī)模產(chǎn)業(yè)化機器翻譯模型、海量翻譯知識獲取、多語言翻譯統(tǒng)一框架、機器同聲傳譯等方面進行了系統(tǒng)而深入的研究。特別是基于神經(jīng)網(wǎng)絡的多語言翻譯統(tǒng)一框架,在全世界范圍內(nèi)首次實現(xiàn)了203種語言的互譯。
百度AI圍繞智能語音和機器翻譯的戰(zhàn)略布局佐證了這樣一個事實:技術(shù)賽道并非是閉門造車,百度AI對羅技的優(yōu)先賦能,正是精準把握產(chǎn)業(yè)化需求的體現(xiàn)。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字