碼隆科技提出跨越時(shí)空的樣本配對(duì),解決深度度量學(xué)習(xí)痛點(diǎn)
三、方法梗概
我們發(fā)現(xiàn),雖然在訓(xùn)練的前 3K iterations,mini-batch 過(guò)去的提取特征與當(dāng)前模型偏差很大,但是,隨著訓(xùn)練時(shí)間的延長(zhǎng),過(guò)去的迭代里所提取過(guò)的特征,逐漸展示為當(dāng)前模型的一個(gè)有效近似。我們要做的不過(guò)是把這些特征給存下來(lái),每個(gè)特征不過(guò)是 128 個(gè) float 的數(shù)組,即便我們存下了過(guò)去 100 個(gè) mini-batch 的特征,不過(guò)是6400個(gè)(假設(shè) batch size = 64)float 數(shù)組,所需要不過(guò)是幾十 MB 的顯存。而它帶來(lái)的好處是顯而易見(jiàn)的,我們能夠組成的樣本對(duì)的個(gè)數(shù)是僅僅利用當(dāng)前 mini-batch 的一百倍。即便這些特征不能高精準(zhǔn)地反映當(dāng)前模型的信息,但是只要特征偏移在合理的范圍內(nèi),這種數(shù)量上帶來(lái)的好處,可以完全補(bǔ)足這種誤差帶來(lái)的副作用。 具體來(lái)看,我們的 XBM 的方法架構(gòu)大致如下:
偽代碼如下:
我們的 XBM 從結(jié)構(gòu)上非常簡(jiǎn)單清晰。我們先訓(xùn)練一個(gè) epoch 左右,等待特征偏移變小。然后,我們使用 XBM:一個(gè)特征隊(duì)列去記憶過(guò)去 mini-batch 的特征,每次迭代都會(huì)把當(dāng)前 mini-batch 提取出來(lái)的新鮮特征加入隊(duì)列,并把最舊的特征踢出隊(duì)列,從而保證 XBM 里的特征盡量是最新的。每次去構(gòu)建樣本隊(duì)列的時(shí)候,我們將當(dāng)前 mini-batch 和 XBM 里的所有特征都進(jìn)行配對(duì)比較,從而形成了巨量的樣本對(duì)。如果說(shuō) XBM 存儲(chǔ)了過(guò)去 100 個(gè) mini-batch,那么其所產(chǎn)生的樣本對(duì)就是基于 mini-batch 方法的 100 倍。 不難發(fā)現(xiàn),XBM 其實(shí)直接和過(guò)去基于樣本對(duì)的方法結(jié)合,只需要把原來(lái)的 mini-batch 內(nèi)的樣本對(duì)換成當(dāng)前 mini-batch 和 XBM 的特征構(gòu)成的樣本對(duì)就可以了。所以,我們通過(guò) XBM 這種存儲(chǔ)特征的機(jī)制,能夠讓不同時(shí)序的 mini-batch 的特征成功配對(duì)。
四、實(shí) 驗(yàn)
消融實(shí)驗(yàn) ①
首先,我們?cè)谌齻(gè)常用的檢索數(shù)據(jù)集,和三個(gè)基于樣本對(duì)的深度學(xué)習(xí)的方法上,使用 XBM 進(jìn)行測(cè)試,同時(shí)控制其他的設(shè)置全部不變。我們發(fā)現(xiàn),XBM 帶來(lái)的效果很明顯。尤其是在最基本的對(duì)比損失(Contrastive Loss)上,可以看到,本來(lái)這個(gè)方法只利用 mini-batch 內(nèi)的樣本時(shí),其效果并不顯著,但是 XBM 帶來(lái)了顯著的效果提升。在三個(gè)數(shù)據(jù)集, Recall@1 都至少提升 10 個(gè)點(diǎn),尤其是 VehicleID 數(shù)據(jù)集的最大(Large)測(cè)試集,效果提升了 22 個(gè)點(diǎn),從 70.0 到 92.5。
消融實(shí)驗(yàn) ②
關(guān)于 mini-batch 的大小對(duì)結(jié)果的影響, 從上圖可發(fā)現(xiàn)三點(diǎn):1. 無(wú)論是否使用 XBM,mini-batch 越大,效果越好;2. XBM 方法即便是使用很小的 batch (16), 也比沒(méi)有XBM 使用大的 batch (256) 效果好;3. 由于 XBM 本身可以提供正樣本對(duì),所以可以不一定要用 PK sampler 來(lái)生成 mini-batch,而是可以直接使用原始的 shuffle sampler,效果相似。
五、計(jì)算資源消耗
下圖我們展示了在 SOP 上訓(xùn)練 XBM 時(shí)的計(jì)算資源消耗,即便把整個(gè)訓(xùn)練集(50K+)的特征都加載到 XBM,不過(guò)需要 0.2GB 的顯存;而如果是使用增大 batch 的方法,會(huì)額外需要 15GB 顯存,是 XBM 的 80 倍,但是效果的提升比 XBM 差很多。畢竟 XBM 僅僅需要存特征,特征也是直過(guò)去的 mini-batch 的前向計(jì)算的結(jié)果,計(jì)算資源的需求很小。

發(fā)表評(píng)論
請(qǐng)輸入評(píng)論內(nèi)容...
請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字
最新活動(dòng)更多
-
7月8日立即報(bào)名>> 【在線會(huì)議】英飛凌新一代智能照明方案賦能綠色建筑與工業(yè)互聯(lián)
-
7月22-29日立即報(bào)名>> 【線下論壇】第三屆安富利汽車生態(tài)圈峰會(huì)
-
7月31日免費(fèi)預(yù)約>> OFweek 2025具身機(jī)器人動(dòng)力電池技術(shù)應(yīng)用大會(huì)
-
7.30-8.1火熱報(bào)名中>> 全數(shù)會(huì)2025(第六屆)機(jī)器人及智能工廠展
-
免費(fèi)參會(huì)立即報(bào)名>> 7月30日- 8月1日 2025全數(shù)會(huì)工業(yè)芯片與傳感儀表展
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍(lán)皮書(shū)》
推薦專題
- 1 AI 眼鏡讓百萬(wàn) APP「集體失業(yè)」?
- 2 豆包前負(fù)責(zé)人喬木出軌BP后續(xù):均被辭退
- 3 一文看懂視覺(jué)語(yǔ)言動(dòng)作模型(VLA)及其應(yīng)用
- 4 “支付+”時(shí)代,支付即生態(tài) | 2025中國(guó)跨境支付十大趨勢(shì)
- 5 中國(guó)最具實(shí)力AI公司TOP10
- 6 特斯拉Robotaxi上路,馬斯克端上畫(huà)了十年的餅
- 7 國(guó)家數(shù)據(jù)局局長(zhǎng)劉烈宏調(diào)研格創(chuàng)東智
- 8 AI的夏天:第四范式VS云從科技VS地平線機(jī)器人
- 9 張勇等人退出阿里合伙人
- 10 深圳跑出40億超級(jí)隱形冠軍:賣機(jī)器人年入6.1億,港股上市