ICRA2019旗艦會議來襲 | 通過視覺信號預測駕駛員意圖
比較FC-LSTM、ConvLSTM、cn-clstm以及文章提出的方法,上述指標如表1所示。FC-LSTM性能最弱;這可以解釋為全連通層在提取空間特征時效率低下,只有通過網(wǎng)絡的大容量來平衡,這使得它可以學習更復雜的功能。ConvLSTM通過利用門的卷積實現(xiàn)了稍好一點的效果,這使得它更適合于空間特征提取。然而,它的內存效率低下阻止了使用更深層次的架構,因此限制了模型的容量。結合這兩種方法,得到了一個CNNLSTM,它既能利用CNNs豐富的空間特征提取,又能利用LSTMs的時間特征表示,取得了比之前基線更好的效果。我們提出的方法在LSTM和注意機制中進一步增加了卷積,得到了最好的結果。
混淆矩陣如表2所示。注意,OFF的檢測精度明顯較高,而FLASHERS的檢測精度較低,因為這兩個類在數(shù)據(jù)集中分別表示過多和過少,即使使用分層抽樣方案,圖4d(a)這種不平衡自然會影響測試性能。
網(wǎng)絡故障模式。(a)夜間明亮的燈光被錯誤地歸類為左轉。(b)遠處車輛右側的明亮反光被誤列為右轉彎。(c)一輛不常見的車輛識別結果為沒有發(fā)出右轉信號。(d)姿態(tài)解碼錯誤,輸出翻轉。(e)在載有單車的車輛上作假性左轉。
結論
在自動駕駛領域,檢測駕駛員的意圖是一項必不可少的任務,是預測諸如變道和停車等突發(fā)事件的必要手段。在本文中,研究人員解決了轉彎信號分類這一重要而尚未探索的問題。提出了一種能夠端到端的訓練方法,能夠處理車輛的不同視點。提出的神經(jīng)網(wǎng)絡通過意圖、卷積和遞歸來推斷空間和時間特征,從而在幀級對一系列觀測信號的轉彎信號狀態(tài)進行分類。該實驗使用包含120多萬張實況圖像的數(shù)據(jù)集來訓練和評估的方法。未來在這個問題上,研究領域將會擴展到緊急車輛信號,以及更多分類的功能(例如來自曝光不足的相機的圖像)的識別問題上。
參考:
[1] Frossard D, Kee E, Urtasun R.DeepSignals: Predicting Intent of Drivers Through Visual Signals[J]. arXivpreprint arXiv:1905.01333, 2019.
[2] icra2019.org

請輸入評論內容...
請輸入評論/評論長度6~500個字