日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 人工智能 > pytorch >内容正文

pytorch

全球30篇最热门的计算机视觉和深度学习论文

發(fā)布時(shí)間:2025/7/25 pytorch 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 全球30篇最热门的计算机视觉和深度学习论文 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

全球30篇最熱門的計(jì)算機(jī)視覺和深度學(xué)習(xí)論文

2016-06-23分類:機(jī)器學(xué)習(xí)評(píng)論(0) 大數(shù)據(jù)交流QQ群,匯聚2萬大數(shù)據(jù)愛好者。加入,開啟你的數(shù)據(jù)江湖!!

這是一份被國外專家引用最多的計(jì)算機(jī)視覺和深度學(xué)習(xí)論文清單。

在2012年,我整理了一份有關(guān)計(jì)算機(jī)視覺的熱門論文清單。我把論文的研究重點(diǎn)放在視覺科學(xué)上,避免其與圖形處理、調(diào)研和純靜態(tài)處理等方向產(chǎn)生重疊。但在2012年后隨著深度學(xué)習(xí)技術(shù)的興起,計(jì)算機(jī)視覺科學(xué)發(fā)生了巨大的變化–從深度學(xué)習(xí)中產(chǎn)生了大量的視覺科學(xué)基線。雖然不知道該趨勢(shì)還會(huì)持續(xù)多久,但我認(rèn)為它們應(yīng)該擁有屬于自己的清單。

一如我一直強(qiáng)調(diào)的,被引用得最多的論文并不代表它在該領(lǐng)域做出的貢獻(xiàn)就最大;而是代表了它抓住了當(dāng)時(shí)的某個(gè)熱點(diǎn)。

以下就是我重新整理的有關(guān)計(jì)算機(jī)視覺與(或)深度學(xué)習(xí)的Top30論文清單:
1.引用次數(shù):5518
標(biāo)題:深度卷積神經(jīng)網(wǎng)絡(luò)分類(Imagenet classification with deep convolutional neural networks)
A Krizhevsky, I Sutskever, GE Hinton, 2012
論文鏈接地址

2.引用次數(shù):1868
標(biāo)題:咖啡:快速卷積結(jié)構(gòu)特征嵌入(Caffe: Convolutional architecture for fast feature embedding)
Y Jia, E Shelhamer, J Donahue, S Karayev…, 2014
論文鏈接地址

3.引用次數(shù):1681
標(biāo)題:反向傳播算法在手寫體郵政編碼識(shí)別中的應(yīng)用(Backpropagation applied to handwritten zip code recognition)
Y LeCun, B Boser, JS Denker, D Henderson…, 1989
論文鏈接地址

4.引用次數(shù):1516
標(biāo)題:實(shí)現(xiàn)精確對(duì)象和語義段檢測的富特征層次結(jié)構(gòu)(Rich feature hierarchies for accurate object detection and semantic segment)
R Girshick, J Donahue, T Darrell…, 2014
論文鏈接地址

5.引用次數(shù):1405
標(biāo)題: 進(jìn)行大型圖像識(shí)別的深層網(wǎng)絡(luò)(Very deep convolutional networks for large-scale image recognition)
K Simonyan, A Zisserman, 2014
論文鏈接地址

6.引用次數(shù):1169
標(biāo)題:通過共適應(yīng)的特征探測器來改進(jìn)神經(jīng)網(wǎng)絡(luò)(Improving neural networks by preventing co-adaptation of feature detectors)
GE Hinton, N Srivastava, A Krizhevsky…, 2012
論文鏈接地址

7.引用次數(shù):1160
標(biāo)題:深入了解卷積(Going deeper with convolutions)
C Szegedy, W Liu, Y Jia, P Sermanet…, 2015
論文鏈接地址

8.引用次數(shù):977
標(biāo)題:反向傳播網(wǎng)絡(luò)的手寫數(shù)字識(shí)別(Handwritten digit recognition with a back-propagation network)
BB Le Cun, JS Denker, D Henderson…, 1990
論文鏈接地址

9.引用次數(shù):907
標(biāo)題:觀察和理解卷積網(wǎng)絡(luò)(Visualizing and understanding convolutional networks)
MD Zeiler, R Fergus, 2014
論文鏈接地址

10.引用次數(shù):839
標(biāo)題: 降階—以簡單的方法來防止神經(jīng)網(wǎng)絡(luò)擬合(Dropout: a simple way to prevent neural networks from overfitting)
N Srivastava, GE Hinton, A Krizhevsky…, 2014
論文鏈接地址

11.引用次數(shù):839
標(biāo)題:Overfeat框架:使用卷積網(wǎng)絡(luò)進(jìn)行綜合識(shí)別、 定位和檢測(Overfeat: Integrated recognition, localization and detection using convolutional networks)
P Sermanet, D Eigen, X Zhang, M Mathieu…, 2013
論文鏈接地址

12.引用次數(shù):818
標(biāo)題:從微圖像里學(xué)習(xí)多層次特征(Learning multiple layers of features from tiny images)
A Krizhevsky, G Hinton, 2009
論文鏈接地址

13.引用次數(shù):718
標(biāo)題:無咖啡因:一個(gè)用于通用圖像識(shí)別的深積激活特征(DeCAF: A Deep Convolutional Activation Feature for Generic Visual Recognition)
J Donahue, Y Jia, O Vinyals, J Hoffman, N Zhang…, 2014
論文鏈接地址

14.引用次數(shù):691
標(biāo)題: 深度人臉:拉近與真人之間的面部識(shí)別差距(Deepface: Closing the gap to human-level performance in face verification)
Y Taigman, M Yang, MA Ranzato…, 2014
論文鏈接地址

15.引用次數(shù):679
標(biāo)題:深入玻耳茲曼機(jī) (Deep Boltzmann Machines)
R Salakhutdinov, GE Hinton, 2009
論文鏈接地址

16.引用次數(shù):670
標(biāo)題:用于圖像、 語音和時(shí)間序列的卷積網(wǎng)絡(luò)(Convolutional networks for images, speech, and time series)
Y LeCun, Y Bengio, 1995
論文鏈接地址

17.引用次數(shù):570
標(biāo)題:現(xiàn)成的 CNN 功能: 令人震驚的基線識(shí)別(CNN features off-the-shelf: an astounding baseline for recognition)
A Sharif Razavian, H Azizpour, J Sullivan…, 2014
論文鏈接地址

18.引用次數(shù):549
標(biāo)題:學(xué)習(xí)場景標(biāo)識(shí)中的分層結(jié)構(gòu)特征 (Learning hierarchical features for scene labeling)
C Farabet, C Couprie, L Najman…, 2013
論文鏈接地址

19.引用次數(shù):510
標(biāo)題:完全卷積網(wǎng)絡(luò)的語義分割(Fully convolutional networks for semantic segmentation)
J Long, E Shelhamer, T Darrell, 2015
論文鏈接地址

20.引用次數(shù):469
標(biāo)題: 最大輸出網(wǎng)絡(luò)(Maxout networks)
IJ Goodfellow, D Warde-Farley, M Mirza, AC Courville…, 2013
論文鏈接地址

21.引用次數(shù):453
標(biāo)題:精絕的細(xì)節(jié):深度鉆研卷積網(wǎng)(Return of the devil in the details: Delving deep into convolutional nets)
K Chatfield, K Simonyan, A Vedaldi…, 2014
論文鏈接地址

22.引用次數(shù):445
標(biāo)題:使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行大型視頻分類 (Large-scale video classification with convolutional neural networks)
A Karpathy, G Toderici, S Shetty, T Leung…, 2014
論文鏈接地址

23.引用次數(shù):347
標(biāo)題:深度視覺語義路線生成圖像描述(Deep visual-semantic alignments for generating image descriptions)
A Karpathy, L Fei-Fei, 2015
論文鏈接地址

24.引用次數(shù):342
標(biāo)題:深入學(xué)習(xí)整流器:超越人類水平的圖像分類(Delving deep into rectifiers: Surpassing human-level performance on imagenet classification)
K He, X Zhang, S Ren, J Sun, 2015
論文鏈接地址
25.引用次數(shù):334
標(biāo)題:使用卷積神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)和轉(zhuǎn)移中級(jí)圖像顯示 (Learning and transferring mid-level image representations using convolutional neural networks)
M Oquab, L Bottou, I Laptev, J Sivic, 2014
論文鏈接地址

26.引用次數(shù):333
標(biāo)題:卷積網(wǎng)絡(luò)及其在視覺中的應(yīng)用(Convolutional networks and applications in vision)
Y LeCun, K Kavukcuoglu, C Farabet, 2010
論文鏈接地址
27.引用次數(shù):332
標(biāo)題:使用場景數(shù)據(jù)庫進(jìn)行深度場景識(shí)別(Learning deep features for scene recognition using places database)
B Zhou, A Lapedriza, J Xiao, A Torralba…,2014
論文鏈接地址

28.引用次數(shù):299
標(biāo)題:使用深積網(wǎng)絡(luò)中的空間金字塔池進(jìn)行視覺識(shí)別 (Spatial pyramid pooling in deep convolutional networks for visual recognition)
K He, X Zhang, S Ren, J Sun, 2014
論文鏈接地址

29.引用次數(shù):268
標(biāo)題:使用長期遞歸卷積網(wǎng)絡(luò)進(jìn)行視覺識(shí)別和描述(Long-term recurrent convolutional networks for visual recognition and description)
J Donahue, L Anne Hendricks…, 2015
論文鏈接地址

30.引用次數(shù):261
標(biāo)題:使用二流卷積網(wǎng)絡(luò)進(jìn)行動(dòng)作視頻識(shí)別(Two-stream convolutional networks for action recognition in videos)
K Simonyan, A Zisserman, 2014
論文鏈接地址

PS:有個(gè)別論文是付費(fèi)閱讀,無PDF(但提供了入口鏈接)。

原文來自:Computervisionblog(譯者:伍昆)

來源:云棲社區(qū)

鏈接:https://yq.aliyun.com/articles/55892?spm=5176.100239.bloglist.5.dcrjri#

總結(jié)

以上是生活随笔為你收集整理的全球30篇最热门的计算机视觉和深度学习论文的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。