丑憨批的Transformer笔记
生活随笔
收集整理的這篇文章主要介紹了
丑憨批的Transformer笔记
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
rnn-seq2seq-attentio
attention
attention
transformer
transformer
Self-Attention:當(dāng)前翻譯和已經(jīng)翻譯的前文之間的關(guān)系;
Encoder-Decnoder Attention:當(dāng)前翻譯和編碼的特征向量之間的關(guān)系。
總結(jié)
以上是生活随笔為你收集整理的丑憨批的Transformer笔记的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 一个关于c++string比较的问题
- 下一篇: CDN原理加速解析