什么是文本摘要?為什么要有注意力機(jī)制?
建立Tokenizer
通過分詞器生成詞匯表,并將單詞文本序列轉(zhuǎn)為數(shù)值序列,方便計算機(jī)計算。
模型建立
我們可以選擇是否讓LSTM在每個時間步都會生成隱藏狀態(tài)h和記憶單元狀態(tài)c。
選擇LSTM是否僅生成最后一個時間步的隱藏狀態(tài)h和記憶單元狀態(tài)c。
選擇LSTM相互堆疊提高模型效果。
選擇雙向LSTM,可以雙向處理文本數(shù)據(jù),獲取更加豐富的上下文信息。
使用beam search strategy代替貪婪方法argmax。
根據(jù)BLEU分?jǐn)?shù)評估模型的性能。
可以選擇指針生成網(wǎng)絡(luò),
因為整數(shù)序列采用獨(dú)熱編碼的方式,所以損失函數(shù)采用了稀疏交叉熵,對內(nèi)存友好。
數(shù)學(xué)理解注意力機(jī)制
編碼器為源文本序列每一個時間步j(luò)都生成了一個隱藏狀態(tài)值hj。
相似的工作,解碼器為目標(biāo)文本每一個時間步i都生成了隱藏狀態(tài)值si。
alignment score: 。用這個分?jǐn)?shù)表示源文本中的第j步單詞與目標(biāo)文本中第i步單詞的關(guān)聯(lián)度?梢杂胔j與si來計算這個分?jǐn)?shù)值 根據(jù)所使用的得分函數(shù)的類型,有不同類型的注意力機(jī)制。這里列舉一些流行的注意力機(jī)制:
使用softmax函數(shù)對注意力參數(shù)的值進(jìn)行歸一化。
計算注意力權(quán)重與編碼器hj的隱藏狀態(tài)乘積的線性總和,以產(chǎn)生注意力上下文向量Ci。
將注意力上一下文向量Ci與目標(biāo)隱藏層向量si級聯(lián)以產(chǎn)生新的注意力隱藏層向量Si。
將注意力隱藏層向量傳入密集層產(chǎn)生yi。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
即日-9.16點(diǎn)擊進(jìn)入 >> 【限時福利】TE 2025國際物聯(lián)網(wǎng)展·深圳站
-
10月23日立即報名>> Works With 開發(fā)者大會深圳站
-
10月24日立即參評>> 【評選】維科杯·OFweek 2025(第十屆)物聯(lián)網(wǎng)行業(yè)年度評選
-
11月27日立即報名>> 【工程師系列】汽車電子技術(shù)在線大會
-
12月18日立即報名>> 【線下會議】OFweek 2025(第十屆)物聯(lián)網(wǎng)產(chǎn)業(yè)大會
-
精彩回顧立即查看>> 【限時下載】ADI中國三十周年感恩回饋助力企業(yè)升級!
推薦專題
- 1 阿里首位程序員,“掃地僧”多隆已離職
- 2 先進(jìn)算力新選擇 | 2025華為算力場景發(fā)布會暨北京xPN伙伴大會成功舉辦
- 3 宇樹機(jī)器人撞人事件的深度剖析:六維力傳感器如何成為人機(jī)安全的關(guān)鍵屏障
- 4 清華跑出具身智能獨(dú)角獸:給機(jī)器人安上眼睛和大腦,融資近20億
- 5 踢館大廠和微軟,剖析WPS靈犀的AI實用主義
- 6 特朗普要求英特爾首位華人 CEO 辭職
- 7 騰訊 Q2 財報亮眼:AI 已成第二增長曲線
- 8 AI版“四萬億刺激”計劃來了
- 9 谷歌吹響AI沖鋒號,AI還有哪些機(jī)會
- 10 蘋果把身家押在Siri上:一場輸不起的自我革命