日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 人工智能 > ChatGpt >内容正文

ChatGpt

【AI白身境】究竟谁是paper之王,全球前10的计算机科学家

發(fā)布時(shí)間:2024/1/18 ChatGpt 34 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【AI白身境】究竟谁是paper之王,全球前10的计算机科学家 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

文章首發(fā)于微信公眾號(hào)《有三AI》

【AI白身境】究竟誰是paper之王,全球前10的計(jì)算機(jī)科學(xué)家

今天是新專欄《AI白身境》的第十二篇,也是最后一篇了,作為最后一篇,我的想法是激勵(lì)大家見賢思齊。

本來想寫篇必須關(guān)注的大佬,但是實(shí)在是太難寫了,人太多也容易引起爭(zhēng)議,那就用最權(quán)威的資料來,學(xué)術(shù)界公認(rèn)的h-index排名。

所謂H-index,就是high citations,簡(jiǎn)單來說就是論文被引用的頻次。

作者 | 言有三

編輯 | 言有三

?

01 H-index排名前十的計(jì)算機(jī)科學(xué)家

下圖是2018年計(jì)算機(jī)科學(xué)領(lǐng)域的H-index排名前十,相信從中就是小白們也能看到不少熟悉的名字。

完整名單見http://www.iro.umontreal.ca/~bengioy/citation-rate-CS-1sept2018.html?utm_source=wechat_session&utm_medium=social&utm_oi=635845013939032064

H-index排名越高說明論文被人引用的越頻繁,在學(xué)術(shù)界來說這就意味著影響力。下面我們來了解一下排名前十的大佬們都是誰,做過什么。

1,Yoshua?Bengio,加拿大計(jì)算機(jī)科學(xué)家,深度學(xué)習(xí)三巨頭之一,LeNet5作者之一,花書《Deep learning》作者之一,一直呆在學(xué)術(shù)界。

代表性文章:

[1] Lécun, Yann, et al. “Gradient-Based Learning Applied to Document Recognition.”?Proceedings of the IEEE, vol. 86, no. 11, 1998, pp. 2278–2324.

[2]?Bengio Y, Courville A C, Vincent P, et al. Representation Learning: A Review and New Perspectives[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(8): 1798-1828.

2,Geoffrey Hinton,加拿大認(rèn)知心理學(xué)家和計(jì)算機(jī)科學(xué)家,深度學(xué)習(xí)三巨頭之一,反向傳播算法提出者之一,2006年在science期刊發(fā)表深層網(wǎng)絡(luò)逐層初始化訓(xùn)練方法,揭開深度學(xué)習(xí)世紀(jì)新序幕,其弟子Alex Krizhevsky提出AlexNet網(wǎng)絡(luò)。

代表性文章:

[1] Rumelhart D E , Hinton G E , Williams R J . Learning internal representations by error propagation[M]// Neurocomputing: foundations of research. MIT Press, 1988.

[2]?Hinton G E, Salakhutdinov R. Reducing the dimensionality of data with neural networks.[J]. Science, 2006, 313(5786): 504-507.

[3] Krizhevsky A , Sutskever I , Hinton G . ImageNet Classification with Deep Convolutional Neural Networks[C]// NIPS. Curran Associates Inc. 2012.

3,Yann?LeCun,法國(guó)計(jì)算機(jī)科學(xué)家,深度學(xué)習(xí)三巨頭之一,Facebook首席人工智能科學(xué)家,LeNet5網(wǎng)絡(luò)第一作者,深度學(xué)習(xí)綜述《Deep learning》作者之一。

至此三巨頭都出現(xiàn)了,不愧是三巨頭,它們之間也有著千絲萬縷的合作,從上面同時(shí)出現(xiàn)在LeNet5和深度學(xué)習(xí)花書的Yoshua?Bengio和Yann?LeCun就可以看出,兩人年紀(jì)也相當(dāng),而Hinton其實(shí)已經(jīng)是兩者的老師級(jí)別。

4,Andrew Zisserman,英國(guó)計(jì)算機(jī)科學(xué)家,牛津大學(xué)教授,計(jì)算機(jī)視覺研究員,經(jīng)典書《Multiple View Geometryin Computer Vision》作者,VGG網(wǎng)絡(luò)作者之一,Pascal Visual Object Classes (VOC) Challenge發(fā)起者之一,Deep Mind研究員。

代表性文章:

[1] Simonyan K, Zisserman A. Very Deep Convolutional Networks for Large-Scale Image Recognition[J]. international conference on learning representations, 2015.

[2]?Everingham M, Van Gool L, Williams C K, et al. The Pascal Visual Object Classes (VOC) Challenge[J]. International Journal of Computer Vision, 2010, 88(2): 303-338.

[3]?Jaderberg M, Simonyan K, Zisserman A, et al. Spatial transformer networks[J]. neural information processing systems, 2015: 2017-2025.

5,David Haussler,美國(guó)生物信息學(xué)家,霍華德休斯醫(yī)學(xué)研究所研究員、生物分子工程教授等,人類基因組計(jì)劃競(jìng)賽中組裝了第一個(gè)人類基因組序列。

代表性文章:

[1] Lander E S, Linton L, Birren B, et al. Initial sequencing and analysis of the human genome.[J]. Nature, 2001, 409(6822): 860-921.

6,Trevor Darrell,加州大學(xué)伯克利分教授,伯克利人工智能研究(BAIR)實(shí)驗(yàn)室的聯(lián)合主任,Caffe,RCNN作者之一,

代表性文章:

[1] Jia Y, Shelhamer E, Donahue J, et al. Caffe: Convolutional Architecture for Fast Feature Embedding[J]. acm multimedia, 2014: 675-678.

[2]?Girshick R B, Donahue J, Darrell T, et al. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation[J]. computer vision and pattern recognition, 2014: 580-587.

7,StephenP.Boyd,三星工程教授,斯坦福大學(xué)信息系統(tǒng)實(shí)驗(yàn)室電氣工程教授,凸優(yōu)化書籍《Convex optimization》作者。

代表性文章:

[1]?Stephen Boyd L V, Stephen Boyd L V. Convex optimization[J]. IEEE Transactions on Automatic Control, 2006, 51(11):1859-1859.

[2] Candes E J, Wakin M B, Boyd S P. Enhancing Sparsity by Reweighted l(1) Minimization[J]. Journal of Fourier Analysis & Applications, 2007, 14(5):877-905.

8,Michael I. Jordan,美國(guó)科學(xué)家、加州大學(xué)伯克利分校教授。機(jī)器學(xué)習(xí)領(lǐng)域的領(lǐng)軍人物之一,2016年《科學(xué)》雜志評(píng)定的世界上最具影響力的計(jì)算機(jī)科學(xué)家。Latent Dirichlet Allocation模型作者。

代表性文章:

[1] Blei D M, Ng A Y, Jordan M I. Latent dirichlet allocation[J]. Journal of Machine Learning Research, 2012, 3:993-1022.

9,Christopher Manning,斯坦福大學(xué)人工智能實(shí)驗(yàn)室主任,語言學(xué)和計(jì)算機(jī)科學(xué)家。書籍《Introduction to information retrieval》,《Foundations of Statistical Natural Language Processing》作者。

代表性文章:

[1]?Manning C D. Foundations of statistical natural language processing[M]// Foundations of Statistical Natural Language Processing. 1999.

[2]?Larson R R. Introduction to Information Retrieval[J]. Journal of the Association for Information Science and Technology, 2010, 61(4): 852-853.

10,Herbert A Simon,諾貝爾經(jīng)濟(jì)學(xué)獎(jiǎng),圖靈獎(jiǎng)等獲得者,書籍《The?Sciences?of?the?Artificial》,《Human?Problem?Solving》作者,也是唯一一個(gè)已經(jīng)不在世近二十年的科學(xué)家,卻還能在過去一年的論文引用前十中占據(jù)一席,可見影響力之大。

代表論文:

除了上面的10位,計(jì)算機(jī)科學(xué)領(lǐng)域還有很多世界級(jí)的研究人員值得我們?nèi)リP(guān)注的,比如花書作者之一和生成對(duì)抗網(wǎng)絡(luò)的提出者Ian Goodfellow等,不再過多介紹。

?

02 深度學(xué)習(xí)領(lǐng)域的優(yōu)秀青年華人

如果說世界級(jí)科學(xué)家離我們太遙遠(yuǎn),那么身邊優(yōu)秀的華人是不是需要好好關(guān)注?下面介紹幾個(gè)優(yōu)秀的80后青年華人,都是非常有代表性的人物,對(duì)深度學(xué)習(xí)有突破性的學(xué)術(shù)貢獻(xiàn)或開源框架作者。

1,何愷明,本科就讀于清華大學(xué),博士畢業(yè)于香港中文大學(xué)多媒體實(shí)驗(yàn)室,曾在微軟亞洲研究院擔(dān)任實(shí)習(xí)生,目前在Facebook人工智能實(shí)驗(yàn)室(FAIR)擔(dān)任研究科學(xué)家。他是Resnet、Mask R-CNN第一作者,也是首位獲計(jì)算機(jī)視覺領(lǐng)域三大國(guó)際會(huì)議之一CVPR“最佳論文獎(jiǎng)”的中國(guó)學(xué)者。另外他也獲得了CVPR 2016和ICCV 2017(Marr Prize)的最佳論文獎(jiǎng),并獲得了ICCV 2017最佳學(xué)生論文獎(jiǎng),CVPR 2018的PAMI年輕學(xué)者獎(jiǎng),這就是別人隔壁家的小明和學(xué)霸。

代表性文章:

[1]?He K , Zhang X , Ren S , et al. Deep Residual Learning for Image Recognition[J]. 2015.

[2] He K, Gkioxari G, Dollar P, et al. Mask R-CNN[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, PP(99):1-1.

2,賈揚(yáng)青,深度學(xué)習(xí)框架Caffe之父。本科和碩士研究生就讀于清華大學(xué),博士畢業(yè)于加州大學(xué)伯克利分校,曾在新加坡國(guó)立大學(xué)、微軟亞洲研究院、NEC美國(guó)實(shí)驗(yàn)室、Google Brain工作,現(xiàn)任Facebook研究科學(xué)家,負(fù)責(zé)前沿AI平臺(tái)的開發(fā)以及前沿的深度學(xué)習(xí)研究。

代表性文章:

[1]?Jia Y , Shelhamer E , Donahue J , et al. Caffe: Convolutional Architecture for Fast Feature Embedding[J]. 2014.

[2]?Decaf: A deep convolutional activation feature for generic visual recognition

如果說何凱明是學(xué)術(shù)界的青年扛把子,那么賈揚(yáng)清就是工業(yè)界的青年扛把子了,他還有知乎賬號(hào),冒過幾個(gè)泡。

3,李沐,2008年本科畢業(yè)于上海交通大學(xué)計(jì)算機(jī)系,CMU博士畢業(yè),深度學(xué)習(xí)開源框架MXNet作者之一,曾在微軟亞洲研究院擔(dān)任實(shí)習(xí)生,在亞馬遜就職。沐神有一本在線書籍《動(dòng)手學(xué)深度學(xué)習(xí)》,另外現(xiàn)在有很多的群,算是做深度學(xué)習(xí)的普及工作貢獻(xiàn)了。

代表性文章:

[1] Li M , Liu Z , Smola A J , et al. DiFacto - Distributed Factorization Machines[C]// Acm International Conference on Web Search & Data Mining. ACM, 2016.

4、陳天奇,本科畢業(yè)于上海交通大學(xué)ACM班,華盛頓大學(xué)計(jì)算機(jī)系博士生。深度學(xué)習(xí)編譯器TVM,SVDFeature,XGBoost,cxxnet等作者,MxNet,DMLC發(fā)起人之一。

代表性文章:

[1] MXNet: A Flexible and Efficient Machine Learning Library for Heterogeneous Distributed Systems
Tianqi Chen, Mu Li, Yutian Li, Min Lin, Naiyan Wang, Minjie Wang, Tianjun Xiao, Bing Xu, Chiyuan Zhang, Zheng Zhang?
LearningSys at Neural Information Processing Systems 2015?

[2]?TVM: An Automated End-to-End Optimizing Compiler for Deep Learning
Tianqi Chen, Thierry Moreau, Ziheng Jiang, Lianmin Zheng, Eddie Yan, Meghan Cowan, Haichen Shen, Leyuan Wang, Yuwei Hu, Luis Ceze, Carlos Guestrin, Arvind Krishnamurthy?

5、韓松,本科畢業(yè)于清華大學(xué)后,博士畢業(yè)于斯坦福大學(xué),深鑒科技聯(lián)合創(chuàng)始人之一,2016年ICLR最佳論文deep compression論文一作。就放深鑒科技四個(gè)創(chuàng)始人的照片吧,都是青年才俊。

代表性文章:

[1]?Han S , Kang J , Mao H , et al. ESE: Efficient Speech Recognition Engine with Sparse LSTM on FPGA[J]. 2016.

[2]?Han S, Mao H, Dally W J, et al. Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding[J]. international conference on learning representations, 2016.

?

總結(jié)

AI領(lǐng)域不管是老前輩還是后起之秀真的太多了,寫這一篇文章的目地不僅是給初學(xué)者們作一個(gè)簡(jiǎn)單的介紹,更是自勉。就算不能成為他們那樣牛逼的人,也要有一顆見賢思齊,不斷提升自己的斗志。

?

轉(zhuǎn)載文章請(qǐng)后臺(tái)聯(lián)系

侵權(quán)必究

比如網(wǎng)絡(luò)loss不正常,怎么調(diào)都不管用。

比如訓(xùn)練好好的,測(cè)試就是結(jié)果不對(duì)。

bug天天有,深度學(xué)習(xí)算法工程師遇到的特別多,如果你想交流更多,就來有三AI知識(shí)星球?qū)崟r(shí)提問交流吧,大咖眾多,總有能解決你問題的。

初識(shí)境界到此基本就結(jié)束了,這一系列是為大家奠定扎實(shí)的深度學(xué)習(xí)基礎(chǔ),希望學(xué)習(xí)完后大家能有收獲。

AI白身境系列完整閱讀:

第一期:【AI白身境】深度學(xué)習(xí)從棄用windows開始

第二期:【AI白身境】Linux干活三板斧,shell、vim和git

第三期:【AI白身境】學(xué)AI必備的python基礎(chǔ)

第四期:【AI白身境】深度學(xué)習(xí)必備圖像基礎(chǔ)

第五期:【AI白身境】搞計(jì)算機(jī)視覺必備的OpenCV入門基礎(chǔ)

第六期:【AI白身境】只會(huì)用Python?g++,CMake和Makefile了解一下

第七期:【AI白身境】學(xué)深度學(xué)習(xí)你不得不知的爬蟲基礎(chǔ)

第八期:?【AI白身境】深度學(xué)習(xí)中的數(shù)據(jù)可視化

第九期:【AI白身境】入行AI需要什么數(shù)學(xué)基礎(chǔ):左手矩陣論,右手微積分

第十期:【AI白身境】一文覽盡計(jì)算機(jī)視覺研究方向

第十一期:【AI白身境】AI+,都加在哪些應(yīng)用領(lǐng)域了

第十二期:【AI白身境】究竟誰是paper之王,全球前10的計(jì)算機(jī)科學(xué)家

AI初識(shí)境系列完整閱讀

第一期:【AI初識(shí)境】從3次人工智能潮起潮落說起

第二期:【AI初識(shí)境】從頭理解神經(jīng)網(wǎng)絡(luò)-內(nèi)行與外行的分水嶺

第三期:【AI初識(shí)境】近20年深度學(xué)習(xí)在圖像領(lǐng)域的重要進(jìn)展節(jié)點(diǎn)

第四期:【AI初識(shí)境】激活函數(shù):從人工設(shè)計(jì)到自動(dòng)搜索

第五期:【AI初識(shí)境】什么是深度學(xué)習(xí)成功的開始?參數(shù)初始化

第六期:【AI初識(shí)境】深度學(xué)習(xí)模型中的Normalization,你懂了多少?

第七期:【AI初識(shí)境】為了圍剿SGD大家這些年想過的那十幾招

第八期:【AI初識(shí)境】被Hinton,DeepMind和斯坦福嫌棄的池化,到底是什么?

第九期:【AI初識(shí)境】如何增加深度學(xué)習(xí)模型的泛化能力

第十期:【AI初識(shí)境】深度學(xué)習(xí)模型評(píng)估,從圖像分類到生成模型

第十一期:【AI初識(shí)境】深度學(xué)習(xí)中常用的損失函數(shù)有哪些?

第十二期:【AI初識(shí)境】給深度學(xué)習(xí)新手開始項(xiàng)目時(shí)的10條建議

感謝各位看官的耐心閱讀,不足之處希望多多指教。后續(xù)內(nèi)容將會(huì)不定期奉上,歡迎大家關(guān)注有三公眾號(hào) 有三AI

?

總結(jié)

以上是生活随笔為你收集整理的【AI白身境】究竟谁是paper之王,全球前10的计算机科学家的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。