关于pytorch--embedding的问题
生活随笔
收集整理的這篇文章主要介紹了
关于pytorch--embedding的问题
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
使用Pytorch實現NLP深度學習
Word Embeddings: Encoding Lexical Semantics
在pytorch里面實現word embedding是通過一個函數來實現的:nn.Embedding
在深度學習1這篇博客中討論了word embeding層到底怎么實現的,
評論中問道,word embedding具體怎么做的,然后樓主做了猜測,我們可以驗證一下。
我們里可以使用文章中的代碼debug一下
一步步debug,進入fuctional函數的時候I,我們可以看到一句話
input (LongTensor): Tensor containing indices into the embedding matrix
我們輸入的input是embedding matrix的索引,那embedding matrix是什么呢?緊接著有句話:
我們可以回答
yes
詞嵌入是隨機初始化,模型訓練完成之后得到的
總結
以上是生活随笔為你收集整理的关于pytorch--embedding的问题的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: pytorch学习 中 torch.sq
- 下一篇: pytorch中的transpose()