日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 人工智能 > pytorch >内容正文

pytorch

深度学习CV文章整理

發(fā)布時(shí)間:2023/12/14 pytorch 30 豆豆
生活随笔 收集整理的這篇文章主要介紹了 深度学习CV文章整理 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

一、目標(biāo)檢測(cè)

1.綜述文章

(1).收藏 | YOLO系列綜述:從V1到V4
(2).大盤(pán)點(diǎn) | 性能最強(qiáng)的目標(biāo)檢測(cè)算法
(3).這7篇CVPR 2020 目標(biāo)檢測(cè)論文項(xiàng)目都開(kāi)源了!EfficientDet/ATSS/Hit-Detector/HTCN等
(4).目前是2020年最佳目標(biāo)檢測(cè)綜述(第五期)
(5).2020年國(guó)內(nèi)最新最優(yōu)目標(biāo)檢測(cè)(完結(jié)篇)提供下載鏈接
(6).25篇最新CV領(lǐng)域綜述來(lái)了!涵蓋15個(gè)方向:目標(biāo)檢測(cè)/圖像分割/醫(yī)學(xué)影像/人臉識(shí)別等方向
(7).這三篇論文開(kāi)源了!何愷明等人的PointRend,Hinton組的SimCLR和谷歌大腦的EfficientDet
(8).目前最全:52 個(gè)深度學(xué)習(xí)目標(biāo)檢測(cè)模型匯總,論文、源碼一應(yīng)俱全!
(9).目標(biāo)檢測(cè)中的不平衡問(wèn)題綜述
(10).繼往開(kāi)來(lái)!目標(biāo)檢測(cè)二十年技術(shù)綜述
(11).3D目標(biāo)檢測(cè)論文匯總
(12)100 篇 CNN 必讀的經(jīng)典論文,包含檢測(cè)/識(shí)別/分類/分割多個(gè)領(lǐng)域
(13)270篇CVPR 2020代碼開(kāi)源的論文,全在這里了!
(14)計(jì)算機(jī)視覺(jué)中的注意力機(jī)制
(15)官方DarkNet YOLO V3損失函數(shù)完結(jié)版
(16)YOLOv3最全復(fù)現(xiàn)代碼合集(含PyTorch/TensorFlow和Keras等
(17)CVPR 2020 論文大盤(pán)點(diǎn)-超分辨率篇
(18)CVPR 2020 論文大盤(pán)點(diǎn)-行人檢測(cè)與重識(shí)別篇
(19)300+篇CVPR 2020代碼開(kāi)源的論文,全在這里了!

2.擁擠目標(biāo)檢測(cè)

(1).IterDet:擁擠場(chǎng)景中目標(biāo)檢測(cè)的迭代方案
只需對(duì)訓(xùn)練和推理過(guò)程進(jìn)行較小的修改,即可將該迭代方案應(yīng)用于現(xiàn)有的一階段和二階段目標(biāo)檢測(cè)器,顯著提升其密集目標(biāo)檢測(cè)性能。代碼現(xiàn)已開(kāi)源!作者團(tuán)隊(duì):三星AI中心
#擁擠場(chǎng)景目標(biāo)檢測(cè)#
目標(biāo)檢測(cè)往往會(huì)生成大量的目標(biāo)候選框,通常的做法是使用NMS過(guò)濾目標(biāo)。但對(duì)于擁擠場(chǎng)景的目標(biāo)檢測(cè),這往往會(huì)把靠的過(guò)近的正確的目標(biāo)個(gè)體去掉了。
為此,本文發(fā)明了一種迭代的目標(biāo)檢測(cè)方法,目標(biāo)檢測(cè)一次后圖像被再一次輸入網(wǎng)絡(luò),但此前檢測(cè)結(jié)果被保留,使其不再被檢測(cè)到。這種迭代檢測(cè)機(jī)制大大改進(jìn)了擁擠場(chǎng)景的目標(biāo)檢測(cè),代碼已開(kāi)源。
作者:三星公司
IterDet: Iterative Scheme for ObjectDetection in Crowded Environments
https://arxiv.org/abs/2005.05708v1
https://github.com/saic-vul/iterdet
(2).CVPR 2020 Oral | 曠視提出目前最好的密集場(chǎng)景目標(biāo)檢測(cè)算法:一個(gè)候選框,多個(gè)預(yù)測(cè)結(jié)果
(3)CVPR 2020 | 遮擋魯棒的目標(biāo)檢測(cè)

3.小目標(biāo),尺度變化

(1)CVPR 2020 | 商湯提出SEPC:應(yīng)對(duì)尺度變化的目標(biāo)檢測(cè)新算法
(2).目標(biāo)檢測(cè) | 解決小目標(biāo)檢測(cè)!多尺度方法匯總
(3).在小目標(biāo)檢測(cè)上另辟蹊徑的SNIP
(4).提升小目標(biāo)檢測(cè)性能!有監(jiān)督特征級(jí)超分辨率方法
(5).#CVPR2020# SEPC:用于目標(biāo)檢測(cè)的尺度縮放金字塔卷積
漲點(diǎn)明顯!適用于一階段/兩階段和anchor-free目標(biāo)檢測(cè)網(wǎng)絡(luò),如FreeAnchor+SEPC在COCO上可達(dá)50.1% AP!代碼剛剛開(kāi)源!作者團(tuán)隊(duì):商湯科技
特征金字塔已成為提取不同尺度特征的有效方法。該方法的開(kāi)發(fā)主要集中在聚集不同levels的上下文信息,而很少涉及特征金字塔中的層間關(guān)聯(lián)。早期的計(jì)算機(jī)視覺(jué)方法通過(guò)在空間和尺度維度上定位特征極值來(lái)提取尺度不變特征。
(6).YOLT:大尺寸圖像目標(biāo)檢測(cè)的解決方案
(7).SCRDet++:小型/聚集/旋轉(zhuǎn)的目標(biāo)檢測(cè) | 通過(guò)實(shí)例級(jí)特征去噪和旋轉(zhuǎn)損失平滑
作者團(tuán)隊(duì):上海交通大學(xué)&安徽大學(xué)等

小而雜亂的物體在現(xiàn)實(shí)世界中很常見(jiàn),這對(duì)檢測(cè)具有挑戰(zhàn)性。當(dāng)物體旋轉(zhuǎn)時(shí),困難更加明顯,因?yàn)閭鹘y(tǒng)的檢測(cè)器通常將物體常規(guī)地定位在水平邊界框中,使得感興趣區(qū)域被背景或附近的交錯(cuò)物體影響。在本文中,我們首先創(chuàng)新性地將去噪技術(shù)引入目標(biāo)檢測(cè)。在特征圖上執(zhí)行實(shí)例級(jí)去噪,以增強(qiáng)對(duì)小型雜亂物體的檢測(cè)。為了處理旋轉(zhuǎn)變化,我們還向平滑的L1損耗添加了一個(gè)新的IoU常數(shù)因子,以解決…

(8).小目標(biāo)檢測(cè)的福音:Stitcher,簡(jiǎn)單又有效
(9).提升小目標(biāo)檢測(cè)的思路
(10).解決小目標(biāo)檢測(cè)!多尺度方法匯總
(11)CVPR 2020 |商湯提出應(yīng)對(duì)尺度變化的目標(biāo)檢測(cè)新算法

4.分割

(1).CVPR2020論文CenterMask解讀
(2).一文看盡6篇CVPR 2020實(shí)例分割論文開(kāi)源項(xiàng)目!CenterMask/PolarMask/Deep Snake等
(3).這7篇CVPR 2020 語(yǔ)義分割論文項(xiàng)目都開(kāi)源了!SPNet/HANet/ContextPrior等
(4).GRoIE:用于實(shí)例分割的新型感興趣區(qū)域提取層
本文的動(dòng)機(jī)是需要克服現(xiàn)有RoI提取器的局限性,可用于兩階段框架的目標(biāo)檢測(cè)和實(shí)例分割任務(wù),如對(duì)Mask R-CNN、Grid R-CNN都有直接漲點(diǎn),代碼現(xiàn)已開(kāi)源!作者團(tuán)隊(duì):帕爾瑪大學(xué)

鑒于用于CV任務(wù)的深度神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)的廣泛傳播,如今越來(lái)越多的新應(yīng)用變得可行。其中,通過(guò)利用可從R-CNN派生的兩階段網(wǎng)絡(luò)(例如Mask R-CNN或Faster R-CNN)獲得的結(jié)果,最近特別關(guān)注實(shí)例分割。在這些復(fù)雜的體系結(jié)構(gòu)中,興趣區(qū)域…
#改進(jìn)的ROI提取層# 意大利University of Parma 的論文提出一種新的目標(biāo)檢測(cè)和實(shí)例分割中的ROI提取層GRoIE,可以方便的插入兩階段的目標(biāo)檢測(cè)和實(shí)例分割網(wǎng)絡(luò)中,顯著改進(jìn)精度(目標(biāo)檢測(cè)改進(jìn)1.1%AP,實(shí)例分割改進(jìn)1.7%AP),https://arxiv.org/pdf/2004.13665v1.pdf
代碼已開(kāi)源:https://github.com/IMPLabUniPr/mmdetection-groie

(5).SRDA-Net:用于語(yǔ)義分割的超分辨率域自適應(yīng)網(wǎng)絡(luò)
本文提出一個(gè)新的端到端語(yǔ)義分割網(wǎng)絡(luò),超分辨率域自適應(yīng)網(wǎng)絡(luò)(SRDA-Net),它可以同時(shí)完成超分辨率和域自適應(yīng),這些特征完全滿足通常涉及各種分辨率的遙感圖像語(yǔ)義分割的要求。作者團(tuán)隊(duì):河北工業(yè)大學(xué)&南開(kāi)大學(xué)&北航
2.CVPR 2020 | 美團(tuán)提出CenterMask,實(shí)例分割新網(wǎng)絡(luò)!速度/精度更均衡
(6).PANet:基于金字塔注意力網(wǎng)絡(luò)的圖像復(fù)原(去噪/去馬賽克/超分辨率等)
本模塊可以靈活地集成到各種網(wǎng)絡(luò)中,在去噪、SR、去馬賽克等任務(wù)上表現(xiàn)SOTA!代碼剛剛開(kāi)源!作者團(tuán)隊(duì):UIUC(Thomas S.Huang黃煦濤等)&東北大學(xué)(美國(guó))&谷歌大腦&字節(jié)跳動(dòng)AI Lab等

本文提出了一種新穎的金字塔注意力模塊用于圖像復(fù)原,該模塊從多尺度特征金字塔中捕獲遠(yuǎn)程特征對(duì)應(yīng)關(guān)系。

(7).DRU-net:用于醫(yī)學(xué)圖像分割的高效深度卷積神經(jīng)網(wǎng)絡(luò)
本文方法與DenseNet和AttnNet相比,具有更少的模型參數(shù),可實(shí)現(xiàn)更高的分割精度,優(yōu)于DU-net和RU-net等網(wǎng)絡(luò),論文已收錄于ISBI 2020,代碼即將開(kāi)源!作者團(tuán)隊(duì):諾丁漢大學(xué)

殘差網(wǎng)絡(luò)(ResNet)和密集連接網(wǎng)絡(luò)(DenseNet)大大提高了深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN)的訓(xùn)練效率和性能,主要用于目標(biāo)分類任務(wù)。

(8)來(lái)聊聊U-Net及其變種
(9)語(yǔ)義分割未來(lái)發(fā)展如何?

5.目標(biāo)跟蹤

(1).一文看盡9篇CVPR 2020目標(biāo)跟蹤論文開(kāi)源項(xiàng)目!Siam R-CNN/AutoTrack/MAST等
(2).曠視開(kāi)源了一套圖像檢索和ReID的PyTorch庫(kù)
(3).多目標(biāo)跟蹤新范式:CenterTrack
(4).CVPR 2020(Oral) | LTMU:給跟蹤器學(xué)習(xí)一個(gè)長(zhǎng)時(shí)更新控制器
(5).港中文、商湯、中科院 CVPR 2020 點(diǎn)云3D目標(biāo)檢測(cè)算法PV-RCNN
https://github.com/sshaoshuai/PV-RCNN
https://github.com/sshaoshuai/PCDet
(6).#CVPR2020# D3S:判別式Single Shot分割目標(biāo)跟蹤器
20小時(shí)單卡訓(xùn)練出的模型,性能優(yōu)于SiamRPN++、ATOM和SiamMask等網(wǎng)絡(luò),速度可達(dá)25 FPS,代碼剛剛開(kāi)源!作者團(tuán)隊(duì):盧布爾雅那大學(xué)等

基于模板的判別式跟蹤器由于其健壯性目前是主要的跟蹤范例,但僅限于邊界框跟蹤和有限范圍的轉(zhuǎn)換模型,這降低了其定位精度。我們提出了一種判別式的single-shot分割跟蹤器-D3S,它縮小了視覺(jué)對(duì)象跟蹤和視頻對(duì)象分割之間的差距。Single-shot網(wǎng)…

(7).南京大學(xué)提出 FCOT:全卷積在線跟蹤框架
本文提出第一個(gè)全卷積在線跟蹤框架(FCOT),在5大數(shù)據(jù)集上表現(xiàn)SOTA!速度可達(dá)53 FPS,性能優(yōu)于SiamFC++、DiMP和SiamRPN++等網(wǎng)絡(luò),代碼即將開(kāi)源!作者團(tuán)隊(duì):南京大學(xué)(武港山組)

區(qū)分性訓(xùn)練已證明對(duì)于穩(wěn)健的跟蹤有效。但是,在線學(xué)習(xí)可以簡(jiǎn)單地應(yīng)用于分類分支,而由于其復(fù)雜的設(shè)計(jì),要適應(yīng)回歸分支仍然很困難。在本文中,我們介紹了第一個(gè)全卷積在線跟蹤框架(FCOT),重點(diǎn)是為分類和回歸分支啟用在線學(xué)習(xí)。我們的主要貢…

(8).#CVPR2020# DDGAN:通過(guò)退化不變性學(xué)習(xí)對(duì)現(xiàn)實(shí)世界中進(jìn)行行人重識(shí)別
性能優(yōu)于IANet、PCB、CAD-Net、RAIN和GLAD等網(wǎng)絡(luò),作者團(tuán)隊(duì):中科大&合工大&中科院

現(xiàn)實(shí)世界中行人重識(shí)別(Re-ID)通常受到各種退化因素的影響,例如,低分辨率,弱照明,模糊和不利天氣。一方面,這些退化導(dǎo)致嚴(yán)重的歧視性信息丟失,這嚴(yán)重阻礙了身份表征學(xué)習(xí)。另一方面,low-level視覺(jué)變化引起的特征不匹配問(wèn)題大大降低了檢索性能。解決此問(wèn)題的一個(gè)直觀解決方案是利用low-le…

(9).CVPR2020 | 谷歌提出多目標(biāo)(車輛)跟蹤與檢測(cè)框架 RetinaTrack
(10.)開(kāi)源!FairMOT:多目標(biāo)跟蹤(MOT)新的baseline
(11)CVPR 2020(Oral)丨MAML-Tracker: 用目標(biāo)檢測(cè)思路做目標(biāo)跟蹤? 小樣本即可得高準(zhǔn)確率
(12)登頂VOT2018!南京大學(xué)提出FCOT:全卷積式在線跟蹤器

6.輕量化

(1).DBFace升級(jí),模型僅1.3M的輕量級(jí)高精度人臉檢測(cè)模型
(2).YOTO來(lái)了!你只需訓(xùn)練一次,谷歌大腦提出調(diào)參新trick
(3)xYOLO | 最新最快的實(shí)時(shí)目標(biāo)檢測(cè)

7.類別檢測(cè)

(1).RetinaMask:人臉口罩檢測(cè)新網(wǎng)絡(luò)
(2).PSDet+PSDD:高效通用的停車位檢測(cè)網(wǎng)絡(luò)和數(shù)據(jù)集
表現(xiàn)SOTA!性能優(yōu)于DMPR-PS、DeepPD等網(wǎng)絡(luò),并提出PSDD停車位檢測(cè)數(shù)據(jù)集,含7大類場(chǎng)景,14628個(gè)樣本,數(shù)據(jù)集剛剛開(kāi)源!論文已收錄于IV 2020。作者團(tuán)隊(duì):縱目科技&維多利亞大學(xué)
(3).CVPR 2020 AI城市挑戰(zhàn)賽4大賽道(車輛計(jì)數(shù)、車輛重識(shí)別、車輛跟蹤、交通異常檢測(cè))優(yōu)勝團(tuán)隊(duì)代碼官方匯總!
https://github.com/NVIDIAAICITYCHALLENGE/2020AICITY_Code_From_Top_Teams
(3).重磅!200G超大自動(dòng)駕駛數(shù)據(jù)集A2D2下載
(4).400 fps!CenterFace+TensorRT部署人臉和關(guān)鍵點(diǎn)檢測(cè)
(5).DMNet:航空影像中的密度圖引導(dǎo)的目標(biāo)檢測(cè)網(wǎng)絡(luò)
表現(xiàn)SOTA!性能優(yōu)于ClusDet(ICCV 2019)和RON等網(wǎng)絡(luò),作者團(tuán)隊(duì):北卡羅來(lái)納大學(xué)夏洛特分校等

高分辨率航空?qǐng)D像中的目標(biāo)檢測(cè)是一項(xiàng)具有挑戰(zhàn)性的任務(wù),因?yàn)?)目標(biāo)尺寸的大變化,以及2)目標(biāo)的不均勻分布。一種常見(jiàn)的解決方案是將大的航拍圖像分成小(均勻)的crops,然后在每個(gè)crop上應(yīng)用目標(biāo)檢測(cè)。在本文中,我們研究了圖像裁剪策略來(lái)應(yīng)對(duì)這些挑戰(zhàn)。具體而言,我們提出了一種密度圖引導(dǎo)的目標(biāo)檢測(cè)網(wǎng)絡(luò)(DMNet),該…

(6).IYOLO(改進(jìn)的YOLOv3):智能交通系統(tǒng)中的目標(biāo)分類
IYOLO(改進(jìn)的YOLOv3):智能交通系統(tǒng)中的目標(biāo)分類

作者團(tuán)隊(duì):東南大學(xué)&悉尼科技大學(xué)

智能交通系統(tǒng)(ITS)中的車輛和駕駛員檢測(cè)技術(shù)是近年來(lái)的熱門(mén)話題。特別地,駕駛員檢測(cè)仍然是具有挑戰(zhàn)性的問(wèn)題,這有助于監(jiān)督交通秩序和維護(hù)公共安全。本文提出一種改進(jìn)YOLOv3的算法,實(shí)現(xiàn)對(duì)高速公路上車輛,駕駛員和人員的檢測(cè)和分類,以達(dá)到區(qū)分駕駛員和乘客的目的,并形成車輛之間的一一對(duì)應(yīng)關(guān)系和驅(qū)動(dòng)應(yīng)用。提出的模型和對(duì)比實(shí)驗(yàn)是在我們的自建交通駕駛員面部數(shù)據(jù)庫(kù)上進(jìn)行的。我們的算法的有效性通…

(7).AIZOO開(kāi)源人臉口罩檢測(cè)數(shù)據(jù)+模型+代碼+在線網(wǎng)頁(yè)體驗(yàn),通通都開(kāi)源了
(8).樹(shù)莓派打造車載車牌識(shí)別檢測(cè)系統(tǒng)
(9)用于人臉檢測(cè)的SSH算法–來(lái)自專輯Anchor-based目標(biāo)檢測(cè)

8.改進(jìn)網(wǎng)絡(luò)

(1).目標(biāo)檢測(cè) | 高斯YoloV3值得學(xué)習(xí)應(yīng)用(文中供源碼鏈接)
(2).STAC:用于目標(biāo)檢測(cè)的簡(jiǎn)單有效的半監(jiān)督學(xué)習(xí)框架
半監(jiān)督學(xué)習(xí)(SSL)在使用未標(biāo)注數(shù)據(jù)改善機(jī)器學(xué)習(xí)模型的預(yù)測(cè)性能方面具有廣闊的潛力。但是目前SSL的有效范圍僅限于圖像分類任務(wù)。在本文中,我們提出了STAC,這是一種簡(jiǎn)單但有效的SSL框架,用于視覺(jué)目標(biāo)檢測(cè)以及數(shù)據(jù)增強(qiáng)策略。STAC可以從未標(biāo)注的圖像中部署高置信度的定位對(duì)象的偽標(biāo)簽,并通過(guò)strong增強(qiáng)來(lái)增強(qiáng)一致性,從而更新模型。
(3).CVPR2020 | 圖像識(shí)別之自注意力機(jī)制(代碼已開(kāi)源)
(4).VoVNet:實(shí)時(shí)目標(biāo)檢測(cè)的新backbone網(wǎng)絡(luò)
(5).用于改進(jìn)目標(biāo)檢測(cè)和實(shí)例分割的CIoU Loss和聚類NMS
提出CIoU損失和Cluster-NMS,其可顯著提升實(shí)例分割網(wǎng)絡(luò),如YOLACT性能;并顯著提升目標(biāo)檢測(cè)網(wǎng)絡(luò),如YOLOv3、SSD和Faster R-CNN等,代碼剛剛開(kāi)源!作者團(tuán)隊(duì):天津大學(xué)(DIoU作者)&哈工大

基于深度學(xué)習(xí)的目標(biāo)檢測(cè)和實(shí)例分割取得了空前的進(jìn)展。在本文中,我們提出使用Complete-IoU(CIoU)損失和Cluster-NMS來(lái)增強(qiáng)邊界框回歸和非極大值抑制(NMS)中的幾何因素,

(6).LSCN:通過(guò)分類細(xì)化進(jìn)行Low-Shot目標(biāo)檢測(cè)
本文提出新的low-shot分類校正網(wǎng)絡(luò)(LSCN),該網(wǎng)絡(luò)可以用于任何基于anchor的檢測(cè)器中,以直接提高數(shù)據(jù)稀有類別的檢測(cè)精度,而不會(huì)犧牲基本類別的性能,表現(xiàn)SOTA!性能優(yōu)于Meta-RCNN、YOLO Low-Shot等網(wǎng)絡(luò),作者團(tuán)隊(duì):新加坡國(guó)立大學(xué)&A*STAR

(7).BiANet:用于RGB-D顯著性目標(biāo)檢測(cè)的雙邊注意力網(wǎng)絡(luò)
表現(xiàn)SOTA!性能優(yōu)于D3Net、DMRA、CPFP和TANet等網(wǎng)絡(luò),速度高達(dá)80 FPS!作者團(tuán)隊(duì):南開(kāi)大學(xué)&&天津大學(xué)

利用深度圖像時(shí),大多數(shù)現(xiàn)有的RGB-D顯著性目標(biāo)檢測(cè)(SOD)方法都集中在前景區(qū)域。但是,背景技術(shù)還為傳統(tǒng)的SOD方法提供了重要的信息,以提高性能。為了更好地探究前景和背景區(qū)域中的顯著信息,本文針對(duì)RGB-D SOD任務(wù)提出了一個(gè)雙邊注意力網(wǎng)絡(luò)(BiANet)

(8).PSAM:結(jié)合自注意力模塊和特征金字塔網(wǎng)絡(luò)的顯著性目標(biāo)檢測(cè)
在DUTS-TE等5大數(shù)據(jù)集上表現(xiàn)SOTA!性能優(yōu)于AFNet、MLMSNet和PAGE-Net等網(wǎng)絡(luò),作者團(tuán)隊(duì):倫敦帝國(guó)學(xué)院

通過(guò)使用全卷積網(wǎng)絡(luò)(FCN),顯著性目標(biāo)檢測(cè)已取得了很大的進(jìn)步。但是,基于FCN的U形體系結(jié)構(gòu)可能會(huì)在自上而下的路徑中的上采樣操作期間導(dǎo)致高級(jí)語(yǔ)義信息中的dilution問(wèn)題。因此,它可以削弱顯著性目標(biāo)定位的能力并產(chǎn)生退化的邊界。
(9).MobileDets:搜索移動(dòng)加速器的目標(biāo)檢測(cè)網(wǎng)絡(luò)
適用于CPU、EdgeTPU和DSP等硬件的目標(biāo)檢測(cè)NAS網(wǎng)絡(luò),優(yōu)于MobileNetV3 + SSDLite等網(wǎng)絡(luò),作者團(tuán)隊(duì):威斯康星大學(xué)&Google

基于depthwise的Inverted bottleneck層已成為移動(dòng)設(shè)備上最新目標(biāo)檢測(cè)模型的主要構(gòu)建模塊。在這項(xiàng)工作中,我們通過(guò)重新討論常規(guī)卷積的有用性來(lái)質(zhì)疑這種設(shè)計(jì)模式在廣泛的移動(dòng)加速器中的最優(yōu)性。

(10).#CVPR2020# 深入了解協(xié)同顯著性目標(biāo)檢測(cè)
本文提出CoSOD3k新數(shù)據(jù)集,并全面總結(jié)了34種最先進(jìn)的算法,在四個(gè)現(xiàn)有CoSOD數(shù)據(jù)集(MSRC/iCoSeg等)和CoSOD3k對(duì)其中的19個(gè)進(jìn)行了基準(zhǔn)測(cè)試。作者團(tuán)隊(duì):南開(kāi)大學(xué)(程明明組)&IIAI&武漢大學(xué)&西電

協(xié)同顯著性目標(biāo)檢測(cè)(Co-salient,CoSOD)是顯著性目標(biāo)檢測(cè)(SOD)的一個(gè)新興且增長(zhǎng)迅速的分支,旨在檢測(cè)多個(gè)圖像中共現(xiàn)的顯著性目標(biāo)。但是,現(xiàn)有的CoSOD數(shù)據(jù)集通常存在嚴(yán)重的數(shù)據(jù)偏差,它假定每…
(11).#CVPR2020# SiamAttn:用于視覺(jué)目標(biāo)跟蹤的可變形孿生注意力網(wǎng)絡(luò)
表現(xiàn)SOTA!性能優(yōu)于DIMP、SiamRPN++、SiamDW和ATOM等網(wǎng)絡(luò),作者團(tuán)隊(duì):碼隆科技

基于孿生(Siamese)的跟蹤器在視覺(jué)目標(biāo)跟蹤方面取得了出色的性能。但是,目標(biāo)模板不會(huì)在線更新,并且目標(biāo)模板和搜索圖像的特征是在Siamese體系結(jié)構(gòu)中獨(dú)立計(jì)算的。在本文中,我們通過(guò)引入一種計(jì)算可變形的自注意力(self-attention)和交叉注意力(cross-attention)的新…

(12).Dynamic R-CNN:通過(guò)動(dòng)態(tài)訓(xùn)練實(shí)現(xiàn)高質(zhì)量的目標(biāo)檢測(cè)
在COCO上50.1 AP!表現(xiàn)SOTA!性能優(yōu)于TridentNet、Libra R-CNN等網(wǎng)絡(luò),代碼剛剛開(kāi)源!作者團(tuán)隊(duì):中科院&國(guó)科大&圖森未來(lái)(王乃巖)

在這項(xiàng)工作中,我們首先指出固定網(wǎng)絡(luò)設(shè)置和動(dòng)態(tài)訓(xùn)練過(guò)程之間的不一致問(wèn)題,這會(huì)極大地影響性能。例如,固定標(biāo)簽分配策略和回歸損失函數(shù)無(wú)法適應(yīng)proposals的分布變化,因此不利于訓(xùn)練高質(zhì)量的檢測(cè)器。因此,我們提出Dynamic R-CNN根據(jù)訓(xùn)練期間pro…

(13).53.TOG:針對(duì)實(shí)時(shí)目標(biāo)檢測(cè)系統(tǒng)的對(duì)抗目標(biāo)梯度攻擊
TOG:針對(duì)實(shí)時(shí)目標(biāo)檢測(cè)系統(tǒng)的對(duì)抗目標(biāo)梯度攻擊

對(duì)YOLOv3和SSD實(shí)時(shí)目標(biāo)檢測(cè)器進(jìn)行攻擊,"摧毀"效果顯著。作者團(tuán)隊(duì):佐治亞理工學(xué)院

本文提出了三種針對(duì)性的對(duì)抗性目標(biāo)梯度攻擊,簡(jiǎn)稱為T(mén)OG,它們可能導(dǎo)致最先進(jìn)的深度目標(biāo)檢測(cè)網(wǎng)絡(luò)遭受目標(biāo)消失,目標(biāo)無(wú)中生有和目標(biāo)錯(cuò)誤標(biāo)記攻擊。同時(shí)還提出了一種通用的目標(biāo)梯度攻擊,將對(duì)抗性可傳遞性用于黑盒攻擊,該攻擊對(duì)任何輸入都有效,且攻擊時(shí)間成本可忽略。我們使用YOLO和SSD對(duì)兩個(gè)基準(zhǔn)數(shù)據(jù)集(PASCAL VOC和MS COCO)進(jìn)行實(shí)驗(yàn)…

(14).HDD-Net:具有hand-crafted和學(xué)習(xí)到的混合特征檢測(cè)器和描述符
在圖像匹配和3D重建等任務(wù)上,優(yōu)于R2D2、D2-Net、SuperPoint和SIFT等,作者團(tuán)隊(duì):帝國(guó)理工學(xué)院&華為諾亞實(shí)驗(yàn)室&慕尼黑工業(yè)大學(xué)
(15)即插即漲2-3%!AC-FPN:用于目標(biāo)檢測(cè)的注意力引導(dǎo)上下文的特征金字塔網(wǎng)絡(luò)
(16)CVPR2020 | 南開(kāi)大學(xué)提出SCNet:自校正卷積網(wǎng)絡(luò),無(wú)復(fù)雜度增加換來(lái)性能提升
(17)54.7 AP!最強(qiáng)的目標(biāo)檢測(cè)網(wǎng)絡(luò):DetectoRS(已開(kāi)源)
(18)Attention最新進(jìn)展
(19)超越Focal Loss!AP-Loss:提高單階段目標(biāo)檢測(cè)性能的分類損失
(20)ResNeSt 登頂COCO數(shù)據(jù)集(目標(biāo)檢測(cè),實(shí)例分割,全景分割)
(21)目標(biāo)檢測(cè)新坑來(lái)了!對(duì)標(biāo)Faster R-CNN!FAIR提出DETR:用Transformers來(lái)進(jìn)行端到端的目標(biāo)檢測(cè)
(22)YOLO3改進(jìn)版!Poly-YOLO:更快,更強(qiáng),還支持實(shí)例分割!
(23)Focal Loss改進(jìn)版來(lái)了!GFocal Loss:良心技術(shù),無(wú)Cost漲點(diǎn)!
(24)目標(biāo)檢測(cè)算法之Light-Head R-CNN

9.樣本不平衡問(wèn)題

(1).ProbaNet:用于目標(biāo)檢測(cè)的Proposal平衡網(wǎng)絡(luò)
旨在解決樣本不平衡問(wèn)題,與兩階段目標(biāo)檢測(cè)器(如R-FCN、Faster R-CNN等)兼容,僅有極少的額外計(jì)算成本,但漲點(diǎn)較為明顯!作者團(tuán)隊(duì):電子科技大學(xué)
由基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的目標(biāo)檢測(cè)器生成的候選目標(biāo)proposals遇到容易遇到的樣本不平衡問(wèn)題,這可能會(huì)影響整體性能。在這項(xiàng)研究中,我們提出了一個(gè)Proposal平衡網(wǎng)絡(luò)(ProbaNet)來(lái)緩解不平衡問(wèn)題。
(2).#CVPR2020# 超越Focal Loss!阿里巴巴提出DR Loss:解決目標(biāo)檢測(cè)的樣本不平衡問(wèn)題
用DR Loss替代Focal Loss,并使用ResNet-101作為backbone,就可以直接將COCO上的39.1% mAP提高到41.7%!代碼在23個(gè)小時(shí)前,剛剛開(kāi)源!作者團(tuán)隊(duì):阿里巴巴

樣本不平衡問(wèn)題是one-stage目標(biāo)檢測(cè)算法中一直存在的問(wèn)題,負(fù)樣本(背景)的數(shù)目遠(yuǎn)大于正樣本,簡(jiǎn)單樣本遠(yuǎn)大于難例,從而導(dǎo)致訓(xùn)練無(wú)法收斂到很好的解。本篇論文則提出一種新…

10.3D目標(biāo)檢測(cè)

(1).谷歌大腦&Waymo提出:基于LiDAR點(diǎn)云的流式3D目標(biāo)檢測(cè)
本文提出一個(gè)3D目標(biāo)檢測(cè)器,該檢測(cè)器消除了人為的延遲限制(如數(shù)據(jù)捕獲),而是對(duì)本機(jī)流數(shù)據(jù)進(jìn)行操作以顯著減少latency。作者團(tuán)隊(duì):谷歌大腦&Waymo
動(dòng)態(tài)環(huán)境中的自動(dòng)駕駛,車輛感知并做出反應(yīng)的速度會(huì)影響系統(tǒng)的安全性和有效性。 LiDAR提供了一種出色的感知性能,可為許多現(xiàn)有的感知系統(tǒng)提供信息,包括目標(biāo)檢測(cè),分割,運(yùn)動(dòng)估計(jì)和行為識(shí)別。

(2).基于YOLOv3和K-Means的圖像和點(diǎn)云3D目標(biāo)檢測(cè)方法
作者團(tuán)隊(duì):東京大學(xué)&AIST

基于激光雷達(dá)的3D目標(biāo)檢測(cè)和分類任務(wù)對(duì)于自動(dòng)駕駛(AD)至關(guān)重要。激光雷達(dá)傳感器可以提供周圍環(huán)境的3D點(diǎn)編碼數(shù)據(jù)重建。但是3D點(diǎn)云中的檢測(cè)仍然需要強(qiáng)大的算法挑戰(zhàn)。本文共分三個(gè)部分(1)激光雷達(dá)校準(zhǔn)儀。(2)基于YOLO的檢測(cè)和PointCloud提取;(3)基于k均值的點(diǎn)云分割。 在我們的研究中,Camera可以使用YOLO捕獲圖像以進(jìn)行實(shí)時(shí)2D目標(biāo)檢測(cè),然后將邊界框轉(zhuǎn)移到特征為對(duì)…

(3).#CVPR2020(Oral)# 3DSSD:基于點(diǎn)的3D單階段目標(biāo)檢測(cè)器
表現(xiàn)SOTA!性能優(yōu)于PointPillars、SECOND等基于voxel的網(wǎng)絡(luò),速度高達(dá)25 FPS!代碼20小時(shí)前剛剛開(kāi)源!作者團(tuán)隊(duì):港中文(賈佳亞組)&港科大

當(dāng)前,有許多種基于voxel的3D單階段檢測(cè)器,然而基于點(diǎn)的單階段方法仍未得到充分的研究。在本文中,我們首先提出了一種輕巧有效的基于點(diǎn)的3D單階段目標(biāo)檢測(cè)器,稱為3DSSD,在精度和效率之間實(shí)現(xiàn)了良好的平衡。在這種范例中,所有現(xiàn)有的…

(4).CVPR2020 | 阿里結(jié)構(gòu)感知3D目標(biāo)檢測(cè),KITTI BEV 排行榜第一!
(5).何愷明團(tuán)隊(duì)最新研究:3D目標(biāo)檢測(cè)新框架VoteNet,直接處理點(diǎn)云數(shù)據(jù),刷新最高精度
(6).想做計(jì)算機(jī)視覺(jué)方面,看過(guò)3d目標(biāo)檢測(cè),程序難理解。不會(huì)改進(jìn),想問(wèn)有沒(méi)有其他易程序理解和發(fā)文章的方向?

11.論文學(xué)習(xí)

(1).從零開(kāi)始學(xué)習(xí)YOLOv3教程資源分享
(2).全網(wǎng)第一SoTA成績(jī)卻樸實(shí)無(wú)華的pytorch版efficientdet
(3).PyTorch版EfficientDet比官方TF實(shí)現(xiàn)快25倍?這個(gè)GitHub項(xiàng)目數(shù)天狂攬千星
(4).目標(biāo)檢測(cè)系列三:奇技淫巧
(5).掃描式SSD用于公式檢測(cè),代碼已開(kāi)源
(6).科普:目標(biāo)檢測(cè)Anchor是什么?怎么科學(xué)設(shè)置?[附代碼]

二.卷積相關(guān)

1.華為提出DyNet:動(dòng)態(tài)卷積
2.曠視提出DRConv:動(dòng)態(tài)區(qū)域感知卷積,提升分類/檢測(cè)/分割性能!
3.九州大學(xué)提出:正則化池化(Regularized Pooling)
本文提出了正則化池化,其可使池化操作中的值選擇方向在相鄰kernels之間在空間上平滑,從而僅補(bǔ)償實(shí)際deformations。對(duì)手寫(xiě)字符圖像和紋理圖像的實(shí)驗(yàn)結(jié)果表明,與常規(guī)的池化操作相比,正則化池化不僅可以提高識(shí)別精度,而且可以加快學(xué)習(xí)的收斂速度。作者團(tuán)隊(duì):九州大學(xué)(日本)
4.圖卷積網(wǎng)絡(luò)到底怎么做,這是一份極簡(jiǎn)的Numpy實(shí)現(xiàn)
5.來(lái)聊聊可形變卷積及其應(yīng)用
6.感受野
https://github.com/google-research/receptive_field
7.超越BN-ReLU!谷歌大腦等提出EvoNorms:歸一化激活層的進(jìn)化

三.網(wǎng)絡(luò)相關(guān)

1.《生成對(duì)抗網(wǎng)絡(luò)》綜述(附257頁(yè)ppt下載)
2.來(lái)聊聊ResNet及其變種
3.AutoTune:自動(dòng)調(diào)整卷積神經(jīng)網(wǎng)絡(luò)以改善遷移學(xué)習(xí)
本文提出了一種新穎的框架:AutoTune,其可針對(duì)目標(biāo)數(shù)據(jù)集自動(dòng)調(diào)整預(yù)訓(xùn)練的CNN,同時(shí)將學(xué)習(xí)到的知識(shí)從源任務(wù)轉(zhuǎn)移到目標(biāo)任務(wù)。作者團(tuán)隊(duì):印度信息技術(shù)研究所

遷移學(xué)習(xí)通過(guò)使用在大規(guī)模數(shù)據(jù)集上預(yù)先訓(xùn)練的深度網(wǎng)絡(luò),能夠解決數(shù)據(jù)有限的特定任務(wù)。通常,在將學(xué)習(xí)到的知識(shí)從源任務(wù)遷移到目標(biāo)任務(wù)的同時(shí),最后幾層將在目標(biāo)數(shù)據(jù)集上進(jìn)行微調(diào)(重新訓(xùn)練)。但是,這些層最初是為源任務(wù)設(shè)計(jì)的,可能不適合目標(biāo)任務(wù)。

4.一位中國(guó)博士把整個(gè)CNN都給可視化了,可交互有細(xì)節(jié),每次卷積ReLU池化都清清楚楚
5.【深度學(xué)習(xí)】 神經(jīng)網(wǎng)絡(luò)為何非要激活函數(shù)?
6.真會(huì)玩!在《我的世界》里搭建神經(jīng)網(wǎng)絡(luò),運(yùn)行過(guò)程清晰可見(jiàn),這位印度小哥開(kāi)發(fā)的新玩法火了
7.G-SD:重新思考基于類別判別性的CNN通道剪枝
本文是對(duì)"判別式函數(shù)對(duì)通道剪枝的有效性"的第一個(gè)研究,并提出G-SD,性能優(yōu)于FPGM、GAL等剪枝方法。作者團(tuán)隊(duì):普林斯頓大學(xué)(劉雨晨等人)

通道剪枝(Channel pruning)已越來(lái)越受到網(wǎng)絡(luò)壓縮的關(guān)注。尤其是,基于類別判別性(class-discrimination)的通道剪枝已取得重大進(jìn)展,因?yàn)樗cCNN的分類目標(biāo)完美契合,并提供了良好的可解釋性。

7.ResNet到底在解決一個(gè)什么問(wèn)題呢?
8.#CVPR2020# SAN:探索用于圖像識(shí)別的自注意力
本文探索了pairwise和patchwise兩種自注意力方法,可顯著提高分類、識(shí)別任務(wù)性能,代碼在13個(gè)小時(shí)前剛剛開(kāi)源!作者團(tuán)隊(duì):港中文(賈佳亞組)&Intel實(shí)驗(yàn)室

最近的工作表明,自注意力(self-attention)可以作為圖像識(shí)別模型的基本構(gòu)建塊。我們探索自注意力的變化并評(píng)估其對(duì)圖像識(shí)別的有效性。我們考慮兩種形式的自注意力力。一個(gè)是pairwise self-attention,它概括了標(biāo)準(zhǔn)點(diǎn)積的注意力…

9.#CVPR2020# SCNet:通過(guò)自校準(zhǔn)卷積改進(jìn)卷積網(wǎng)絡(luò)
即插即用的SCNet可應(yīng)用于不同backbone,如:SCNeXt,SE-SCNet等,以在各種視覺(jué)任務(wù)中顯著改善性能,包括圖像識(shí)別,目標(biāo)檢測(cè),實(shí)例分割和關(guān)鍵點(diǎn)檢測(cè)等任務(wù),代碼在21個(gè)小時(shí)前開(kāi)源!作者團(tuán)隊(duì):南開(kāi)大學(xué)(程明明組)&新加坡國(guó)立大學(xué)&字節(jié)AI Lab

CNN的最新進(jìn)展主要致力于設(shè)計(jì)更復(fù)雜的體系結(jié)構(gòu),以增強(qiáng)其表征學(xué)習(xí)能力。在本文中,我們考慮在不調(diào)整模型架構(gòu)的情況下改進(jìn)CNN的基本卷積特征轉(zhuǎn)換過(guò)程。為此,…

10.論文復(fù)習(xí):
視頻地址:
https://www.bilibili.com/video/BV1aa4y1x7vj
github項(xiàng)目地址:
https://github.com/Machine-Learning-Tokyo/CNN-Architectures/tree/master/Implementations
項(xiàng)目鏈接:
下載:https://www.lanzous.com/ib5scij 密碼:7w0r
11.Micro-Dense Nets | 當(dāng)殘差學(xué)習(xí)遇到密集聚合:重新思考深度神經(jīng)網(wǎng)絡(luò)的聚合
一種具有全局殘差學(xué)習(xí)和局部微密聚合的新穎架構(gòu),表現(xiàn)SOTA!性能優(yōu)于Res2Net和Res2NeXt等網(wǎng)絡(luò),同時(shí)還可以與NAS網(wǎng)絡(luò)結(jié)合進(jìn)而提高性能,作者團(tuán)隊(duì):香港城市大學(xué)&南洋理工大學(xué)
目前已經(jīng)提出了各種架構(gòu)(例如GoogLeNet,ResNet和DenseNet)。但是,現(xiàn)有網(wǎng)絡(luò)通常遭受卷積層冗余或參數(shù)利用不足的困擾。為了解決這些具有挑戰(zhàn)性的問(wèn)題,我們提出了Micro-Dense …

12.又一個(gè)ResNet改進(jìn)版來(lái)了!IResNet:可訓(xùn)練超3000層網(wǎng)絡(luò)!
13.IResNet:用于圖像識(shí)別和視頻識(shí)別的改進(jìn)殘差網(wǎng)絡(luò)
本文是ResNet的改進(jìn)版,并為CNN的深度建立了一個(gè)新的里程碑!IResNet成功地在ImageNet上訓(xùn)練了404層網(wǎng)絡(luò),并在CIFAR-10和CIFAR-100上成功訓(xùn)練了3002層網(wǎng)絡(luò),而基線卻無(wú)法在這樣的極端深度收斂。代碼剛剛開(kāi)源!作者團(tuán)隊(duì):起源人工智能研究院(IIAI)

殘差網(wǎng)絡(luò)(ResNets)代表了一種強(qiáng)大的卷積神經(jīng)網(wǎng)絡(luò)(CNN)體系結(jié)構(gòu),已廣泛用于各種任務(wù)中。在這項(xiàng)工作中,我們提出了ResNets的改…

14.當(dāng)UNet遇見(jiàn)ResNet會(huì)發(fā)生什么?
15.超越FPN和NAS-FPN!特征金字塔網(wǎng)格(FPG)來(lái)了!
16.#CVPR2020# AutoNL:面向輕量級(jí)非局部網(wǎng)絡(luò)的NAS
32個(gè)小時(shí)搜索到的AutoNL模型,在ImageNet上達(dá)到了77.7%的Top-1精度,優(yōu)于MixNet和EfficientNet等網(wǎng)絡(luò),代碼剛剛開(kāi)源!作者團(tuán)隊(duì):約翰斯·霍普金斯大學(xué)&字節(jié)跳動(dòng)AI Lab&牛津大學(xué)

Non-Local (NL) blocks 已在各種視覺(jué)任務(wù)中得到了廣泛的研究。然而,由于以下挑戰(zhàn),很少探索將NL塊嵌入移動(dòng)神經(jīng)網(wǎng)絡(luò)中:1)NL塊通常具有大量的計(jì)算成本,這使得難以在計(jì)算資源有…

17.結(jié)合代碼理解Pointnet網(wǎng)絡(luò)結(jié)構(gòu)
18.史上最全GAN綜述2020版:算法、理論及應(yīng)用
19.從文本分類來(lái)看圖卷積神經(jīng)網(wǎng)絡(luò)
19.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的思考:將CNN視作泛函擬合
20.港中文周博磊發(fā)文:十年之間的CVPR與我們(附CVPR2020論文速遞)
21.孿生神經(jīng)網(wǎng)絡(luò)–一個(gè)簡(jiǎn)單神奇的結(jié)構(gòu)

四.機(jī)器學(xué)習(xí)算法

1.有人手寫(xiě)實(shí)現(xiàn)李航《統(tǒng)計(jì)學(xué)習(xí)方法》書(shū)中全部算法
2.周志華機(jī)器學(xué)習(xí)學(xué)習(xí)路線最全匯總!不止于西瓜書(shū)
3.時(shí)至今日,深度學(xué)習(xí)領(lǐng)域有哪些值得追蹤的前沿研究?
4.機(jī)器學(xué)習(xí)在圖像分類與識(shí)別中的應(yīng)用(附PPT下載)
5.收藏!機(jī)器學(xué)習(xí)愛(ài)好者必備表情包
6.類別不平衡學(xué)習(xí):論文/代碼/框架/庫(kù)
7.從小白視角理解『數(shù)據(jù)挖掘十大算法』
8.AI基礎(chǔ):數(shù)據(jù)劃分、超參數(shù)調(diào)整、正則化
9.【白話機(jī)器學(xué)習(xí)】算法理論+實(shí)戰(zhàn)之K-Means聚類算法
10.CVPR 2020 算法競(jìng)賽大盤(pán)點(diǎn)
11.AI入門(mén):Transfer Learning(遷移學(xué)習(xí))
12.B站資源推薦:復(fù)旦大學(xué)機(jī)器學(xué)習(xí)、深度學(xué)習(xí)公開(kāi)課,附PDF課件下載
13.【推薦系統(tǒng)】深入理解YouTube推薦系統(tǒng)算法
14.首發(fā):適合初學(xué)者入門(mén)人工智能的路線及資料下載
15.新建網(wǎng)站了!Github標(biāo)星過(guò)萬(wàn)的吳恩達(dá)機(jī)器學(xué)習(xí)、深度學(xué)習(xí)課程筆記,《統(tǒng)計(jì)學(xué)習(xí)方法》代碼實(shí)現(xiàn),可以在線閱讀了!
17.【目錄】【中文】【deplearning.ai】【吳恩達(dá)課后作業(yè)目錄】
18.AI基礎(chǔ):深度強(qiáng)化學(xué)習(xí)之路
19.AI基礎(chǔ):正則表達(dá)式
20.完結(jié)撒花!2020 最新版《神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)》中文版 PDF 開(kāi)放下載
21.一文詳盡之支持向量機(jī)算法!
22.《動(dòng)手學(xué)深度學(xué)習(xí)》官方宣布新增PyTorch實(shí)現(xiàn)
23.Pytorch 中交叉熵 Loss 趣解

五.新冠

1.【推薦】新冠肺炎的最新數(shù)據(jù)集和簡(jiǎn)單的可視化和預(yù)測(cè)分析(附代碼)
2.美國(guó)高校開(kāi)源迄今為止最大新冠肺炎CT數(shù)據(jù)集
3.【機(jī)器學(xué)習(xí)實(shí)戰(zhàn)】意大利Covid-19病毒感染數(shù)學(xué)模型及預(yù)測(cè)
4.用 Python 對(duì)新冠病毒做數(shù)據(jù)分析,我們得出哪些結(jié)論?
5.疫情蔓延讓這項(xiàng)CV技術(shù)突然火了,盤(pán)點(diǎn)開(kāi)源代碼

六.java

1.【7萬(wàn)字干貨】2021Java實(shí)習(xí)必看面試兩百題解析

七.算法與數(shù)據(jù)結(jié)構(gòu)

1.【算法知識(shí)】詳解冒泡排序算法
2.第0篇 | 數(shù)據(jù)結(jié)構(gòu)與算法 | 不會(huì)數(shù)據(jù)結(jié)構(gòu)與算法的碼農(nóng)有多牛?
3.13個(gè)Offer,8家SSP,談?wù)勎业那镎薪?jīng)驗(yàn)
4.第2篇 | 數(shù)據(jù)結(jié)構(gòu)與算法 | 一文復(fù)習(xí)完7種基本數(shù)據(jù)結(jié)構(gòu)(原理+代碼)
5.想學(xué)好算法?看這個(gè) GitHub 項(xiàng)目就夠了!

八.通信

1.5G中的基帶、射頻,到底是干什么用的?

九.論文排版

1.教你一次性解決畢業(yè)論文所有排版問(wèn)題!轉(zhuǎn)自人民日?qǐng)?bào)

十.Python

1.一分鐘爬取知乎5646個(gè)知乎回答(內(nèi)附代碼)
2.Python 最強(qiáng)編輯器詳細(xì)使用指南!
3.Python封裝通俗易懂的數(shù)據(jù)庫(kù)增、刪、改、查方法
4.25 個(gè)常用 Matplotlib 圖的 Python 代碼,干貨收藏!
5.Python制作十款經(jīng)典的童年游戲(附源碼)
6.必讀!53個(gè)Python經(jīng)典面試題詳解v
7.樸實(shí)無(wú)華,Python 100 例

十一.數(shù)模

1.干貨|專家講數(shù)模(1)

總結(jié)

以上是生活随笔為你收集整理的深度学习CV文章整理的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。