我最佩服的一位同学!他是哈工大在读NLP博士积累28W粉丝
今天只給大家介紹我的朋友憶臻,我是在知乎認識他的,解答了我不少問題,他目前在哈工大SCIR實驗室讀NLP方向博士,一直熱心回答問題,知乎粉絲達到3萬多人!
憶臻創(chuàng)建的公眾號【機器學(xué)習(xí)算法與自然語言處理】,該號記錄他一直學(xué)習(xí)以來的筆記總結(jié),干貨滿滿。他的公眾號在自然語言處理方向排名第一,機器學(xué)習(xí)算法方向排名第一,至今寫了260多篇高質(zhì)量原創(chuàng)文章,有28萬的粉絲!該平臺也成為國內(nèi)最大的機器學(xué)習(xí)與自然語言處理分享平臺!
下面我們來看該號的介紹!
國內(nèi)最大的機器學(xué)習(xí)與自然語言處理分享平臺。
28W+NLPer聚集地!
專注于思維、技術(shù)、經(jīng)驗分享交流!
既講原創(chuàng)深度技術(shù)、又不失通俗易懂。
????掃描上方二維碼關(guān)注
個人強烈推薦相關(guān)方向的學(xué)習(xí)童鞋關(guān)注!!憶臻還給新關(guān)注的童鞋送了紅包,100人88元紅包,關(guān)注他的公眾號,后臺回復(fù)NLP即可參與紅包抽獎。
下面列舉一些憶臻總結(jié)的干貨貼!!
歷史精選文章鏈接
所有文章:
1.《換個角度“聊”線性代數(shù)(一)》
2.《形象的解釋神經(jīng)網(wǎng)絡(luò)激活函數(shù)的作用是什么?》
3.《通俗理解神經(jīng)網(wǎng)絡(luò)BP反向傳播算法》
4.《為什么梯度反方向是函數(shù)下降最快的方向?》
5.《淺析神經(jīng)網(wǎng)絡(luò)為什么能夠無限逼近任意連續(xù)函數(shù)?》
6.《淺析感知機(一)--模型與學(xué)習(xí)策略》
7.《淺析感知機(二)--學(xué)習(xí)算法及python代碼剖析》
8.《《淺析感知機(三)--收斂性證明與對偶形式以及python代碼講解》》
9.《詳解梯度下降法的三種形式BGD,SGD以及MBGD》
10.《一文搞懂k近鄰(k-NN)算法(一)》
11.《完結(jié)篇|一文搞定k近鄰算法(k-NN)算法(二)》
12.《通俗詳解softmax函數(shù)及其求導(dǎo)過程》
13.《大白話解釋模型產(chǎn)生過擬合的原因》
14.《通俗講解平方損失函數(shù)平方形式的數(shù)學(xué)解釋?》
15.《帶你搞懂樸素貝葉斯分類算法》
16.《理解樸素貝葉斯算法中的拉普拉斯平滑》
17.《樸素貝葉斯分類實例-單詞糾正問題》
18.《談?wù)劀蚀_率(P值)、召回率(R值)及F值》
19.《淺析神經(jīng)網(wǎng)絡(luò)中一點優(yōu)化知識》
20.《可視圖講解神經(jīng)元w,b參數(shù)的作用》
21.《聊聊傳統(tǒng)算法系統(tǒng)和機器學(xué)習(xí)系統(tǒng)的一點不同》
22.《通俗理解信息熵》
23.《通俗理解條件熵》
24.《通俗理解決策樹算法中信息增益的》
25.《深入淺出理解決策樹算法(一)-核心思想》
26.《深入淺出理解決策樹算法(二)-ID3算法與C4.5算法》
27.《句法分析(syntactic parsing)在NLP領(lǐng)域的應(yīng)用是怎樣的?》
28.《隱馬爾科夫模型-基本模型與三個基本問題》
29.《隱馬爾科夫模型-前向算法》
30.《機器學(xué)習(xí)中向量化編程總結(jié)記錄》
31.《目錄傳輸命令scp》
32.《干貨|如何處理不均衡數(shù)據(jù)?》
33.《10分鐘入門pytorch(0)》
34.《10分鐘快速入門PyTorch(1)》
35.《干貨|10分鐘入門PyTorch(2)~附源碼》
36.《強烈推薦|一個非常好的依存句法可視化工具》
37.《深度學(xué)習(xí)的梯度消失問題》
38.《干貨|李宏毅ML課程[1]Learning Map》
39.《logistic函數(shù)和softmax函數(shù)》
40.《GAN的數(shù)學(xué)原理》
41.《最優(yōu)化問題的簡介介紹是什么?》
42.《為什么要對數(shù)據(jù)進行歸一化處理?》
43.《依存句法分析的任務(wù)以及形式化定義》
44.《干貨|PyTorch中如何使用tensorboard可視化》
45.《花式解釋AutoEncoder與VAE》
46.《哈工大社會計算與信息檢索研究中心(HIT-SCIR)招收2018年秋季入學(xué)研究生》
47.《干貨|最詳盡的神經(jīng)網(wǎng)絡(luò)基礎(chǔ)》
48.《國內(nèi)大陸部分NLP團隊》
49.《機器學(xué)習(xí)常見算法分類匯總》
50.《梯度下降法的三種形式BGD、SGD以及MBGD》
51.《評測時如何構(gòu)造訓(xùn)練數(shù)據(jù)分布與測試數(shù)據(jù)分布保持一致》
52.《為什么梯度的方向與等高線切線方向垂直?》
53.《自然語言處理中的Attention Model:是什么以及為什么[一]》
54.《自然語言處理中的Attention Model:是什么以及為什么[二]》
55.《干貨|SVM(一)·最全面的感知機總結(jié)》
56.《干貨|非常詳細的神經(jīng)網(wǎng)絡(luò)入門解釋》
57.《干貨|非常通俗的樸素貝葉斯算法(Naive Bayes)》
58.《【西瓜書】周志華《機器學(xué)習(xí)》學(xué)習(xí)筆記與習(xí)題探討(一)》
59.《自然語言處理中CNN模型幾種常見的Max Pooling操作》
60.《重磅|手把手教你從零編寫操作系統(tǒng)》
61.《最大似然估計與最小二乘法的一點淺見》
62.《seq2seq中的beam search算法過程》
63.《深入淺出講解語言模型》
64.《干貨|通俗講解高斯過程回歸》
65.《干貨筆記|NLP Coursera By Michael Collins - Week1》
66.《干貨筆記|Attentive Sequence to Sequence Networks》
????掃描上方二維碼關(guān)注
這里再推薦一個專注深度學(xué)習(xí)的分享號,機器學(xué)習(xí),深度學(xué)習(xí),自然語言處理,計算機視覺……這些小事情,只要你主動,就不再是難題|?ω?`)
????掃描上方二維碼關(guān)注
總結(jié)
以上是生活随笔為你收集整理的我最佩服的一位同学!他是哈工大在读NLP博士积累28W粉丝的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 跨境电商Etsy如何使用交互行为类型进行
- 下一篇: Attention 扫盲:注意力机制及其