谷歌提出基于神經網絡搜索的目標檢測新型架構,同時適應圖像識別
在圖像任務中卷積網絡通常將輸入圖像編碼成一系列中間特征來捕捉圖像局部和全局的語意信息,特征的空間分辨率也會隨著層數(shù)的增加而減小。然而,這種以犧牲空間分辨率為代價的模型結構對于需要多尺度特征的識別任務來說并不能獲取非常有效的特征,尤其像是目標檢測和語意分割任務中,類別識別和目標定位同樣重要。像FCN和DeepLab等工作都提出了多尺度的編解碼器架構來解決這一問題,利用犧牲尺度的模型來作為編碼器,同時利用解碼器來恢復空間信息。
雖然這種架構成功地提升了識別和定位任務的性能,但使用了降采樣的編碼器依舊損失了空間信息,需要解碼器進行恢復,但這種恢復無法保留足夠的原始空間信息。人們不禁想到,如果可以設計出一種主干模型避免空間信息的損失,是不是就能天然地同時適應于圖像識別與定位任務了?
幾種不同的尺度輪換架構
在這種思想的指導下,研究人員在今年的CVPR論文SpineNet中提出了一種名為尺度輪換模型(scale-permuted)的元結構,從兩個方面提升了主干結構的性能。中間特征圖的空間分辨率應該可以在任意層提升或者減小,以便在網絡加深時保持空間信息的有效性;其次特征圖間的連接應該跨越特征尺度來促進多尺度信息的融合。在新架構下,研究人員利用了神經架構搜索(Neural Architecture Search,NAS)方法在新的搜索空間中尋找有效的尺度輪換模型。結果表明這種模型在多尺度視覺任務中超過了標準的尺度縮減主干網絡,在多個基準上實現(xiàn)了優(yōu)異性能指標。
左圖顯示了尺度縮減結構,右圖顯示了尺度置換主干網絡。每個矩形表示了一個模塊,顏色和尺寸顯示了空間分辨率和特征維度的變化,箭頭表示了不同層間的連接。
一、SpineNet的架構設計
為了高效地設計SpingNet的架構,避免耗時的手工設計、參數(shù)搜索和設計,研究人員設計了NAS來優(yōu)化模型結構。主干模型在COCO數(shù)據集上進行了訓練,同時強化了識別和定位任務的需求。在架構搜索階段,研究人員主要在三個方面進行了處理:
尺度輪換:由于需要從已有的模塊進行構建,網絡模塊的順序十分重要。在搜索中通過重整中間特征和輸出模塊的序列關系來重新定義了尺度輪換空間。交叉尺度連接:為每個模塊定義了兩個輸出連接,可以來自于任意的低層模塊或主干網絡模塊。模塊自適應(可選):模塊可以自適應地調節(jié)其尺度和種類。
從尺度縮減到尺度輪換的架構搜索過程對比
NAS搜索中使用了ResNet-50 主干網絡來作為搜索種子,首先學習了尺度輪換和交叉連接的方式。研究人員使用了基于遞歸神經網絡的控制器來實現(xiàn)架構搜索,這是目前最適合于尺度輪換的搜索架構。為了加速搜索過程,研究人員還設計了SpineNet代理,將SpineNet- 49的特征維度縮減因子設置為0.25,設置重采樣因子α為0.25,并在bbox檢測和分類中使用了64維的特征。為了防止搜索空間的指數(shù)增加,研究人員限制了中間架構僅僅允許最后五個block搜索,并在在現(xiàn)有block中進行檢索。針對每個樣本,代理訓練512分辨率的圖像5個epoch,同時驗證集上的AP被作為獎勵來優(yōu)化結構。實際中使用了100個TPU來運行,來搜索最好的結構。

請輸入評論內容...
請輸入評論/評論長度6~500個字