智能無人駕駛再遭質(zhì)疑 雙目融合方案或是新突破口
2016年以來,無人駕駛創(chuàng)業(yè)公司不斷涌現(xiàn),如今正面臨著商業(yè)化探索的關鍵時期。接下來,無人駕駛的行駛方式等待檢驗、量產(chǎn)中亦有諸多難題等待解決。前不久,李開復還曾公開表示,像Waymo一樣的自動駕駛,即人可以不在駕駛位上,還需要很久,但是以后的車沒法人機協(xié)作。
他還進一步解釋道:“我們也可以認為以后無人駕駛達到了一定的程度,它就會通過物聯(lián)網(wǎng)彼此交流,比如說一輛車可以告訴另外一輛車,說我爆胎了,請你們讓開一點。自動駕駛將取代人類駕駛。當然達到這個程度還有20年,30年還是40年,有爭議存在!
雖然在商業(yè)落地的過程中,無人駕駛的生態(tài)圈還面臨眾多難點。但大多數(shù)人依然支持“自動駕駛是人工智能改變世界的光輝起點”的這一觀點,對該領域的探索也不會止步。這其中,SLAM的應用至關重要。
SLAM(同步定位與地圖構(gòu)建),是指運動物體根據(jù)傳感器的信息,一邊計算自身位置,一邊構(gòu)建環(huán)境地圖的過程,解決機器人等在未知環(huán)境下運動時的定位與地圖構(gòu)建問題。目前,SLAM在無人駕駛領域的用途包括傳感器自身的定位,以及后續(xù)的路徑規(guī)劃、運動性能、場景理解等。
由于傳感器種類和安裝方式的不同,SLAM 的實現(xiàn)方式和難度會有一定的差異。按傳感器來分,SLAM 主要分為激光 SLAM 和 vSLAM 兩大類。早在 2005 年的時候,激光 SLAM 就已經(jīng)被研究的比較透徹,直到目前,激光 SLAM仍然是最穩(wěn)定、最主流的定位導航方法。
隨著計算機視覺的迅速發(fā)展,vSLAM(基于視覺的定位與建圖)因為信息量大,適用范圍廣等優(yōu)點逐漸受到廣泛關注;谝曈X的 SLAM 方案目前主要有兩種實現(xiàn)路徑,一種是基于 RGBD 的深度攝像機,比如英特爾的Realsense和小覓深度相機系列產(chǎn)品;還有一種就是基于單目、雙目或者魚眼攝像頭的。
基于深度相機的 SLAM ,跟激光 SLAM 類似,通過收集到的點云數(shù)據(jù),能直接計算障礙物距離,相比基于單目、魚眼相機的 vSLAM 方案,需要利用多幀圖像來估計自身的位姿變化,再通過累計位姿變化來計算距離物體的距離,并進行定位與地圖構(gòu)建,基于深度相機的 SLAM 方案在無人駕駛領域應用更為普遍。
小覓雙目攝像頭深度版(MYNT EYE Depth)采用“視覺+結(jié)構(gòu)光+慣性導航”融合的方案,內(nèi)置深度計算芯片,無需上位機即可輸出深度。相較固態(tài)激光、單目相機、視覺相機、結(jié)構(gòu)光相機和ToF相機等單一深度傳感器方案,“視覺+結(jié)構(gòu)光+慣性導航”融合的方案是適用場景更廣泛且更具性價比的3D傳感器融合解決方案。
小覓雙目攝像頭深度版提供120°FOV和50°FOV兩種視角方案給客戶選擇,120°FOV版本提供更廣闊的深度識別范圍,50°FOV版本則具備更高精度水平和識別深度,識別距離可達15m,精度可達毫米級,為室外作業(yè)環(huán)境提供了更多可能。
總的來說,想讓用戶在AR/VR、機器人、無人機、無人駕駛領域體驗加強,還是需要更多SLAM前沿技術(shù)做支持。未來新型傳感器的出現(xiàn)也會不停地為SLAM注入活力,在降低SLAM算法難度的同時,也會給SLAM的技術(shù)格局帶來許多變化。

最新活動更多
-
7月8日立即報名>> 【在線會議】英飛凌新一代智能照明方案賦能綠色建筑與工業(yè)互聯(lián)
-
7月22-29日立即報名>> 【線下論壇】第三屆安富利汽車生態(tài)圈峰會
-
7.30-8.1火熱報名中>> 全數(shù)會2025(第六屆)機器人及智能工廠展
-
7月31日免費預約>> OFweek 2025具身智能機器人產(chǎn)業(yè)技術(shù)創(chuàng)新應用論壇
-
免費參會立即報名>> 7月30日- 8月1日 2025全數(shù)會工業(yè)芯片與傳感儀表展
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍皮書》
推薦專題