日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

nlp cs224n 学习笔记1 Introduction and Word Vectors

發(fā)布時(shí)間:2024/7/23 编程问答 43 豆豆
生活随笔 收集整理的這篇文章主要介紹了 nlp cs224n 学习笔记1 Introduction and Word Vectors 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

注:個(gè)人筆記,價(jià)值有限,不建議逗留。

word embedding 的意義和目的?

通過一種映射,將自然語言中的單詞,嵌入到n維歐式空間中,得到可以用數(shù)學(xué)語言表達(dá)并用計(jì)算機(jī)計(jì)算的“詞向量”。
同時(shí)我們希望,在語言中語義相近的詞匯,在映射后的空間中仍具有相似性(表現(xiàn)為距離相近)

分布式語義

如何學(xué)習(xí)具有我們想要特性的word embedding呢?
一個(gè)重要的思路是分布式語義:
一個(gè)單詞的含義由頻繁的出現(xiàn)在其附近的單詞所決定

有一定道理,就好像我們?cè)趯W(xué)語言時(shí),一個(gè)單詞的具體含義,經(jīng)常通過給出的若干例句來記住和理解。

Skip-Gram

進(jìn)行word embedding的方法應(yīng)該有很多,今天學(xué)習(xí)了 skip-gram
這里是一個(gè)不錯(cuò)的教程

模型結(jié)構(gòu):

個(gè)人感覺結(jié)構(gòu)和思想都很像自編碼器。
輸入層:對(duì)詞典進(jìn)行one-hot編碼

如何得到某個(gè)單詞的詞向量?
網(wǎng)絡(luò)的隱層的輸出就是最終的 詞向量。
但實(shí)際中,并不需要進(jìn)行前向推理,更像是查表,因?yàn)?#xff1a;

模型是如何學(xué)到有效的詞向量的?
基于分布式語義的合理假設(shè),設(shè)定輸出層負(fù)責(zé)預(yù)測(cè)所有詞表中的單詞出現(xiàn)在當(dāng)前輸入的單詞周圍的概率。

總結(jié)

以上是生活随笔為你收集整理的nlp cs224n 学习笔记1 Introduction and Word Vectors的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。