日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

best,best,best ......何恺明开挂之路

發(fā)布時間:2025/3/12 编程问答 17 豆豆
生活随笔 收集整理的這篇文章主要介紹了 best,best,best ......何恺明开挂之路 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

榮譽(yù)

別人的榮譽(yù)都是在某某大廠工作,拿過什么大獎,而何愷明的榮譽(yù)是best,best,best ......,裂開了

研究興趣

據(jù)我觀察,何愷明的研究興趣大致分成這么幾個階段:

傳統(tǒng)視覺時代:Haze Removal(3篇)、Image Completion(2篇)、Image Warping(3篇)、Binary Encoding(6篇)

深度學(xué)習(xí)時代:Neural Architecture(11篇)、Object Detection(7篇)、Semantic Segmentation(11篇)、Video Understanding(4篇)、Self-Supervised(8篇)

代表作

2009 CVPR best paper?Single Image Haze Removal Using Dark Channel Prior

利用實(shí)驗(yàn)觀察到的暗通道先驗(yàn),巧妙的構(gòu)造了圖像去霧算法。現(xiàn)在主流的圖像去霧算法還是在Dark Channel Prior的基礎(chǔ)上做的改進(jìn)。

2016 CVPR best paper?Deep Residual Learning for Image Recognition

通過殘差連接,可以訓(xùn)練非常深的卷積神經(jīng)網(wǎng)絡(luò)。不管是之前的CNN,還是最近的ViT、MLP-Mixer架構(gòu),仍然擺脫不了殘差連接的影響。

2017 ICCV best paper?Mask R-CNN

在Faster R-CNN的基礎(chǔ)上,增加一個實(shí)例分割分支,并且將RoI Pooling替換成了RoI Align,使得實(shí)例分割精度大幅度提升。雖然最新的實(shí)例分割算法層出不窮,但是精度上依然難以超越Mask R-CNN。

2017 ICCV best student paper?Focal Loss for Dense Object Detection

構(gòu)建了一個One-Stage檢測器RetinaNet,同時提出Focal Loss來處理One-Stage的類別不均衡問題,在目標(biāo)檢測任務(wù)上首次One-Stage檢測器的速度和精度都優(yōu)于Two-Stage檢測器。近些年的One-Stage檢測器(如FCOS、ATSS),仍然以RetinaNet為基礎(chǔ)進(jìn)行改進(jìn)。

2020 CVPR Best Paper Nominee?Momentum Contrast for Unsupervised Visual Representation Learning

19年末,NLP領(lǐng)域的Transformer進(jìn)一步應(yīng)用于Unsupervised representation learning,產(chǎn)生后來影響深遠(yuǎn)的BERT和GPT系列模型,反觀CV領(lǐng)域,ImageNet刷到飽和,似乎遇到了怎么也跨不過的屏障。就在CV領(lǐng)域停滯不前的時候,Kaiming He帶著MoCo橫空出世,橫掃了包括PASCAL VOC和COCO在內(nèi)的7大數(shù)據(jù)集,至此,CV拉開了Self-Supervised研究新篇章。

近期工作

62-Exploring Simple Siamese Representation Learning

SimSiam:孿生網(wǎng)絡(luò)表征學(xué)習(xí)的頂級理論解釋

65-Masked Autoencoders Are Scalable Vision Learners

NLP和CV的雙子星,注入Mask的預(yù)訓(xùn)練模型BERT和MAE

時間線

1-Single Image Haze Removal Using Dark Channel Prior

kaiming he通過大量無霧圖片統(tǒng)計(jì)發(fā)現(xiàn)了dark channel prior—在無霧圖的局部區(qū)域中,3個通道的最小亮度值非常小接近于0(不包括天空區(qū)域)。

dark channel prior通過暗通道先驗(yàn)對haze imaging model進(jìn)行化簡,近似計(jì)算得到粗糙的transmission,然后將haze imaging model和matting model聯(lián)系起來,巧妙的將圖像去霧問題轉(zhuǎn)化為摳圖問題,得到refined transmission,精彩!

何愷明經(jīng)典之作—2009 CVPR Best Paper | Dark Channel Prior

3-Guided Image Filtering

Guided image filtering是結(jié)合兩幅圖片信息的過程,一個filtering input image(表示為p)和一個guide image(表示為I)生成一個filtering output image(表示為q)。p決定了q的顏色,亮度,和色調(diào),I決定了q的邊緣。對于圖像去霧來說,transmission就是p,霧圖就是I,refined transmission就是q。

guided filter則通過公式轉(zhuǎn)換,和濾波聯(lián)系起來,提出新穎的guided filter,巧妙的避開了linear system的計(jì)算過程,極大加快了transmission優(yōu)化的速度。

何愷明經(jīng)典之作—2009 CVPR Best Paper | Dark Channel Prior

37-Focal Loss for Dense Object Detection

構(gòu)建了一個One-Stage檢測器RetinaNet,同時提出Focal Loss來處理One-Stage的類別不均衡問題,在目標(biāo)檢測任務(wù)上首次One-Stage檢測器的速度和精度都優(yōu)于Two-Stage檢測器。近些年的One-Stage檢測器(如FCOS、ATSS),仍然以RetinaNet為基礎(chǔ)進(jìn)行改進(jìn)。

Soft Sampling:探索更有效的采樣策略

38-Mask R-CNN

在Faster R-CNN的基礎(chǔ)上,增加一個實(shí)例分割分支,并且將RoI Pooling替換成了RoI Align,使得實(shí)例分割精度大幅度提升。雖然最新的實(shí)例分割算法層出不窮,但是精度上依然難以超越Mask R-CNN。

從R-CNN到Mask R-CNN的思維躍遷

62-Exploring Simple Siamese Representation Learning

SimSiam的理論解釋意味著帶stop-gradient的孿生網(wǎng)絡(luò)表征學(xué)習(xí)都可以用EM算法解釋。stop-gradient起到至關(guān)重要的作用,并且需要一個預(yù)測期望E的方法進(jìn)行輔助使用。但是SimSiam仍然無法解釋模型坍塌現(xiàn)象,SimSiam以及它的變體不坍塌現(xiàn)象仍然是一個經(jīng)驗(yàn)性的觀察,模型坍塌仍然需要后續(xù)的工作進(jìn)一步討論。

Self-Supervised: 如何避免退化解

SimSiam:孿生網(wǎng)絡(luò)表征學(xué)習(xí)的頂級理論解釋

63-A Large-Scale Study on Unsupervised Spatiotemporal Representation Learning

指出時空的Self-Supervised采樣同一個視頻的positive pair時間跨度越長效果越好,momentum encoder比優(yōu)化目標(biāo)重要,訓(xùn)練時間、backbone、數(shù)據(jù)增強(qiáng)和精選數(shù)據(jù)對于得到更好性能至關(guān)重要。

何愷明+Ross Girshick:深入探究無監(jiān)督時空表征學(xué)習(xí)

64-An Empirical Study of Training Self-Supervised Vision Transformers

MoCov1通過dictionary as a queue和momentum encoder和shuffle BN三個巧妙設(shè)計(jì),使得能夠不斷增加K的數(shù)量,將Self-Supervised的威力發(fā)揮的淋漓盡致。MoCov2在MoCov1的基礎(chǔ)上,增加了SimCLR實(shí)驗(yàn)成功的tricks,然后反超SimCLR重新成為當(dāng)時的SOTA,FAIR和Google Research爭鋒相對之作,頗有華山論劍的意思。MoCov3通過實(shí)驗(yàn)探究洞察到了Self-Supervised+Transformer存在的問題,并且使用簡單的方法緩解了這個問題,這給以后的研究者探索Self-Supervised+Transformer提供了很好的啟示。

MoCo三部曲

65-Masked Autoencoders Are Scalable Vision Learners

MAE設(shè)計(jì)了一個encoder-decoder預(yù)訓(xùn)練框架,encoder只送入image token,decoder同時送入image token和mask token,對patch序列進(jìn)行重建,最后還原成圖片。相比于BEiT,省去了繁瑣的訓(xùn)練tokenizer的過程,同時對image token和mask token進(jìn)行解耦,特征提取和圖像重建進(jìn)行解耦,encoder只負(fù)責(zé)image token的特征提取,decoder專注于圖像重建,這種設(shè)計(jì)直接導(dǎo)致了訓(xùn)練速度大幅度提升,同時提升精度,真稱得上MAE文章中所說的win-win scenario了。

NLP和CV的雙子星,注入Mask的預(yù)訓(xùn)練模型BERT和MAE

kaiming科研嗅覺頂級,每次都能精準(zhǔn)的踩在最關(guān)鍵的問題上,提出的方法簡潔明了,同時又蘊(yùn)含著深刻的思考,文章賞心悅目,實(shí)驗(yàn)詳盡扎實(shí),工作質(zhì)量說明一切。

往期精彩回顧適合初學(xué)者入門人工智能的路線及資料下載中國大學(xué)慕課《機(jī)器學(xué)習(xí)》(黃海廣主講)機(jī)器學(xué)習(xí)及深度學(xué)習(xí)筆記等資料打印機(jī)器學(xué)習(xí)在線手冊深度學(xué)習(xí)筆記專輯《統(tǒng)計(jì)學(xué)習(xí)方法》的代碼復(fù)現(xiàn)專輯 AI基礎(chǔ)下載本站qq群955171419,加入微信群請掃碼:

總結(jié)

以上是生活随笔為你收集整理的best,best,best ......何恺明开挂之路的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。