中科院計算所副研究員馮洋:神經(jīng)機(jī)器翻譯的訓(xùn)練改進(jìn)和解碼提速
2. 可導(dǎo)的序列級目標(biāo)
接下來介紹如果解決詞級匹配的對于好一點(diǎn)的匹配和差的匹配一視同仁的問題。
這個是我們在EMNLP 2018上所做的工作。通過使用可導(dǎo)的序列級目標(biāo)來解決詞級匹配的問題。
首先介紹一下傳統(tǒng)的序列級損失函數(shù)。傳統(tǒng)的序列級損失函數(shù)基本上都是基于N-gram正確率的損失函數(shù),比如,BLEU,GLEU等等。計算方法為,命中n-gram的個數(shù)/總共的n-gram的個數(shù)(candidate),其中n-gram的個數(shù)為其每個詞語出現(xiàn)頻次的乘積。
直接使用BLEU不可到的原因是因為操作中有argmax,為了使其可導(dǎo),我們使用token的預(yù)測概率,而非使用argmax。這個方法和直接用BLEU作為Score,然后reinforce算法直接訓(xùn)練對比有啥優(yōu)勢?由于reinforce算法的方差比較大,所以在訓(xùn)練的時候是很難收斂的。而使用傳統(tǒng)的梯度下降的方法,訓(xùn)練過程就會平穩(wěn)的多。
這里是3-gram的例子,其中output是概率最高的詞,3-gram概率的是由獨(dú)立Token的輸出概率相乘得到結(jié)果,然后求和會得到The total probabilistic count of 3-grams。將匹配上的3-gram的概率拿出來求和作為分子,Total probabilistic count作為分母,計算得到 Precision of 3-grams。這就是我們的loss。
這個例子用來展示整個的訓(xùn)練過程,這里需要注意的一點(diǎn)就是,和傳統(tǒng)的teacher forcing方式不同,這里當(dāng)前步輸入的為上一步預(yù)測的結(jié)果(貪心搜索得到的結(jié)果),而不是ground truth的值。剩下的就是按照上頁slides介紹的來計算loss。對于loss采用傳統(tǒng)的梯度下降算法即可。下面貼的是在數(shù)據(jù)集上的結(jié)果。
從結(jié)果中可以看出,2-gram比4-gram的效果要好,這里我們給出的解釋是,過多的使用自己生成的去計算的話,會存在一定程度上的錯誤累積。
在訓(xùn)練的時候,也是可以通過teacher forcing的方式來訓(xùn)練的,但是從圖中可以看出,teacherforcing的方式收斂的比較快,但是效果不如greedy search的方式好。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
即日-9.1立即下載>> 【限時下載】ADI中國三十周年感恩回饋助力企業(yè)升級!
-
即日-9.16點(diǎn)擊進(jìn)入 >> 【限時福利】TE 2025國際物聯(lián)網(wǎng)展·深圳站
-
10月23日立即報名>> Works With 開發(fā)者大會深圳站
-
10月24日立即參評>> 【評選】維科杯·OFweek 2025(第十屆)物聯(lián)網(wǎng)行業(yè)年度評選
-
11月27日立即報名>> 【工程師系列】汽車電子技術(shù)在線大會
-
12月18日立即報名>> 【線下會議】OFweek 2025(第十屆)物聯(lián)網(wǎng)產(chǎn)業(yè)大會
推薦專題
- 1 阿里首位程序員,“掃地僧”多隆已離職
- 2 先進(jìn)算力新選擇 | 2025華為算力場景發(fā)布會暨北京xPN伙伴大會成功舉辦
- 3 宇樹機(jī)器人撞人事件的深度剖析:六維力傳感器如何成為人機(jī)安全的關(guān)鍵屏障
- 4 清華跑出具身智能獨(dú)角獸:給機(jī)器人安上眼睛和大腦,融資近20億
- 5 特朗普要求英特爾首位華人 CEO 辭職
- 6 踢館大廠和微軟,剖析WPS靈犀的AI實用主義
- 7 騰訊 Q2 財報亮眼:AI 已成第二增長曲線
- 8 谷歌吹響AI沖鋒號,AI還有哪些機(jī)會
- 9 蘋果把身家押在Siri上:一場輸不起的自我革命
- 10 騰訊米哈游押寶的中國AI應(yīng)用,正在海外悶聲發(fā)財