CVPR2020 | 基于點(diǎn)的3D單階段對象檢測器3DSSD
論文原文:3DSSD: Point-based 3D Single Stage Object Detector
作者:Zetong Yang,Yanan Sun,Shu Liu,Jiaya Jia
發(fā)表會議:CVPR 2020
基于體素的 3D 單階段檢測器的普及率與未開發(fā)的基于點(diǎn)的方法形成對比。在本文中,作者提出了一種輕量級的基于點(diǎn)的 3D 階段目標(biāo)檢測器 3DSSD,以實(shí)現(xiàn)準(zhǔn)確性和效率的良好平衡。在這種范例中,所有現(xiàn)有的基于點(diǎn)的方法中必不可少的上采樣層和優(yōu)化階段都將被放棄。相反,在下采樣過程中提出一種融合采樣策略,以使在代表性較小的點(diǎn)上進(jìn)行檢測變得可行。本文為了滿足高精度和高速度的要求,開發(fā)了一種精細(xì)的框預(yù)測網(wǎng)絡(luò),其中包括候選生成層和具有 3D 中心度分配策略的無錨回歸頭。3DSSD 范例是一種優(yōu)雅的單階段免錨模式,在廣泛使用的 KITTI 數(shù)據(jù)集和更具挑戰(zhàn)性的 nuScenes 數(shù)據(jù)集上對其進(jìn)行評估,本文的方法大大優(yōu)于所有基于體素的單階段方法,甚至可以產(chǎn)生與兩階段基于點(diǎn)的方法相當(dāng)?shù)男阅埽评硭俣雀哌_(dá) 25+ FPS,比以前的最先進(jìn)的基于點(diǎn)的方法快 2 倍。
論文背景
3D 畫面理解對于包括自動駕駛和增強(qiáng)現(xiàn)實(shí)在內(nèi)的許多應(yīng)用都起到了促進(jìn),本文聚焦于 3D 的目標(biāo)檢測,即預(yù)測點(diǎn)云表示的3D目標(biāo)的邊緣框及其類別標(biāo)簽。
2D 的目標(biāo)檢測已經(jīng)有了很大突破,但無法直接將其方法應(yīng)用到 3D 的場景中。與 2D 的圖片相比,點(diǎn)云更加稀疏無序,而且對于局部特征十分敏感,這使得我們很難使用 CNN 進(jìn)行學(xué)習(xí),因此 3D 的目標(biāo)檢測的主要問題就是如何利用點(diǎn)云數(shù)據(jù)。
已有的一些方法如將點(diǎn)云轉(zhuǎn)化為圖片、將點(diǎn)云分割為等分布的體素,本文將其稱為基于體素的方法,這些方法都是將點(diǎn)云轉(zhuǎn)化為 2D 的目標(biāo)檢測算法可以應(yīng)用的形式,雖然這些方法直接且有效,但在轉(zhuǎn)化過程中仍然存在著信息損失,這影響了其表現(xiàn)的進(jìn)一步提升。
還有一些基于點(diǎn)的方法直接將點(diǎn)云作為輸入,然后對每一個點(diǎn)進(jìn)行邊界框的預(yù)測。其中又分為兩個階段,第一個階段設(shè)置一些集合提取層(SA)用于降采樣以及抽取上下文特征,另一個階段則是使用特征傳播層(FP)來進(jìn)行上采樣以及傳播點(diǎn)在降采樣中丟失的特征。一種 3D 的區(qū)域建議網(wǎng)絡(luò)(RPN)可以為每個點(diǎn)生成建議,從而在第二階段給出最終的預(yù)測結(jié)果。這些方法取得了更好的效果,但做 inference 需要更長的時間。其中 FP 的第二階段耗費(fèi)了一半的 inference 時間,目前 SA 中的采樣策略是基于 3D 歐氏距離的最遠(yuǎn)點(diǎn)采樣(D-FPS),這意味著先前僅有少數(shù)內(nèi)部點(diǎn)的樣本或許會在采樣后被丟失,從而導(dǎo)致它們無法被檢測到。
在 STD 中,如果不使用上采樣而僅使用降采樣后被保留下來的點(diǎn)做檢測,模型的效果將會下降 9%,這就是 FP 必須要用來做上采樣的原因。為解決這一問題,本文首先提出了一種基于特征距離的采樣策略 F-FPS,并進(jìn)一步的將 F-FPS 與 D-FPS 進(jìn)行混合。
為了更好地探索在 SA 之后被保留下來的有代表性的點(diǎn),本文提出了一個邊框預(yù)測網(wǎng)絡(luò),包括一個候選生成層(CG)、一個無錨回歸頭和一個 3D 中心分配策略。在 CG 中,首先用 F-FPS 中有代表性的點(diǎn)生成候選點(diǎn),這一過程收到這些點(diǎn)以及共現(xiàn)例子中的中心點(diǎn)的相對位置的約束。接下來將這些候選點(diǎn)作為中心,從 F-FPS 和 D-FPS 有代表性的點(diǎn)中選取其周圍的點(diǎn),將其特征通過多層感知網(wǎng)絡(luò)(MLP),這些特征最終被輸入到無錨回歸頭中來預(yù)測 3D 邊框。本文還設(shè)計(jì)了一個 3D 中心分配策略,給候選點(diǎn)中更靠近樣本中心的點(diǎn)更高的得分。
本文在 KITTI 和 nuScenes 兩個數(shù)據(jù)及上進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明本文提出的方法優(yōu)于所有基于體素的單階段方法,在更快的 inference 的基礎(chǔ)上與兩階段基于點(diǎn)的方法也具有一定可比性。
本文的主要貢獻(xiàn)如下:
1. 提出了一個輕量而高效的基于點(diǎn)的單階段 3D 目標(biāo)檢測器 3DSSD,拋棄了需要大量計(jì)算的 FP,這與已有的基于點(diǎn)的方法都不同。
2. 提出了一個混合的采樣策略,可以保留先前僅有少數(shù)內(nèi)部點(diǎn)的樣本。
3. 設(shè)計(jì)了一個高效的邊框預(yù)測網(wǎng)絡(luò),實(shí)驗(yàn)表明該框架由于所有的單階段方法,在更快的 inference 的基礎(chǔ)上表現(xiàn)出與兩階段方法有可比性的效果。

發(fā)表評論
請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
7月8日立即報(bào)名>> 【在線會議】英飛凌新一代智能照明方案賦能綠色建筑與工業(yè)互聯(lián)
-
7月22-29日立即報(bào)名>> 【線下論壇】第三屆安富利汽車生態(tài)圈峰會
-
7.30-8.1火熱報(bào)名中>> 全數(shù)會2025(第六屆)機(jī)器人及智能工廠展
-
7月31日免費(fèi)預(yù)約>> OFweek 2025具身智能機(jī)器人產(chǎn)業(yè)技術(shù)創(chuàng)新應(yīng)用論壇
-
免費(fèi)參會立即報(bào)名>> 7月30日- 8月1日 2025全數(shù)會工業(yè)芯片與傳感儀表展
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍(lán)皮書》
推薦專題