logo
Loading...

【QA】什麼是 self-attention?? - Cupoy

NLP領域中,不論是情感分析、關鍵字提取等任務,都需要一段很長的文字作為訓練資料,且每個字之間都有高...

【QA】什麼是 self-attention??

2021/09/01 下午 03:11
機器學習共學討論版
王健安
觀看數:172
回答數:1
收藏數:0

NLP領域中,不論是情感分析、關鍵字提取等任務,都需要一段很長的文字作為訓練資料,且每個字之間都有高度相關性;然而像RNN、LSTM等模型,僅僅考量到順序性的關聯性,並非考量到字與字之間在文章中的關聯性;而self attention就幫為這個領域注入新力量,也成為時下最流行的BERT的其中一個架構,那self attention到底是什麼呢?

回答列表

  • 2021/09/01 下午 03:28
    王健安
    贊同數:0
    不贊同數:0
    留言數:0

    self attention是NLP領域常見的演算法, 完整考量到每個字在一段文字中的上下文關係, 把上下文的資訊一併考量。 ![image](http://kwassistfile.cupoy.com/0000017BA03A9861000000046375706F795F72656C65617365414E53/1630034429677/large) 演算法的部分, 一開始會將每個字的向量分成q, k以及v, 接著q會與除自己以外的其他字的k相乘, 接著再乘上v,最後再全部相加, 就會得到那個字經過attention的結果。 ![image](http://kwassistfile.cupoy.com/0000017BA03A9861000000046375706F795F72656C65617365414E53/1630034429678/large) 參考答案: 李弘毅 自注意力機制 (Self-attention) (下) https://www.youtube.com/watch?v=hYdO9CscNes