日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Faster R-CNN 深入理解 改进方法汇总

發布時間:2024/9/21 编程问答 59 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Faster R-CNN 深入理解 改进方法汇总 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Faster R-CNN 從2015年底至今已經有接近兩年了,但依舊還是Object Detection領域的主流框架之一,雖然推出了后續 R-FCN,Mask R-CNN 等改進框架,但基本結構變化不大。同時不乏有SSD,YOLO等骨骼清奇的新作,但精度上依然以Faster R-CNN為最好。對于一般的通用檢測問題(例如行人檢測,車輛檢測,文字檢測),只需在ImageNet pre-train model上進行若干次 fine-tune,就能得到非常好的效果。相比于刷pascal voc,Imagenet,coco 等benchmarks,大多數人感興趣的可能是如何應用到自己的檢測目標上。

? ? ? ? PS: 一作任少卿大神人挺帥的,回答問題還很耐心。

? ? ? ? Faster R-CNN 主要由三個部分組成:(1)基礎特征提取網絡(2)RPN (Region Proposal Network) (3)Fast-RCNN 。其中RPN和Fast-RCNN共享特征提取卷積層,思路上依舊延續提取proposal + 分類的思想。后人在此框架上,推出了一些更新,也主要是針對以上三點。

?

1. 更好的特征網絡

? ? (1)ResNet,PVANet

? ? ??ResNet?CVPR2016 oral?

? ? ? paper :?https://arxiv.org/abs/1512.03385?code :https://github.com/KaimingHe/deep-residual-networks

? ? ? ResNet 依然是現在最好的基礎網絡,ResNeXT可能性能上比他好一點,但不是很主流,通過將Faster-RCNN中的VGG16替換成ResNet可以提高performance,不僅是detection,在segmentation,video analysis,recognition等其他領域,使用更深的ResNet都可以得到穩定的提升。

? ? ? PASCAL VOC ?2007 上,通過將VGG-16替換成ResNet-101,mAP從73.2%提高到76.4%, PASACAL 2012 上從70.4%提高到73.8%

? ? ? 值得注意的是,ResNet版本的Faster-RCNN連接方法和Baseline 版本不太一致,具體見任少卿在PAMI 2015中提到?https://arxiv.org/abs/1504.06066。以ResNet-101為例,參考下圖方式,其中res5c,atrous + fc4096 + fc4096 + fcn+1 的方式是和baseline版本一致的方式,而res4b22+res5a+res5b+rec5c+fcn+1 是最終采取的方式。這種連接方式使得ResNet-faster-rcnn成為全卷積結構,大大減少模型大小,同時在性能上有一定提升。

? ? ? ? ???? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??

? ? ? ?在速度方面,ResNet比VGG16更慢,同時需要訓練的次數也更多,個人實驗結果vgg16 baseline版本訓練一輪耗時1.5s,ResNet版本一輪耗時2.0s,同時內存占用量也遠遠大于VGG16,大概四五倍,沒有12G的GPU就不要想用了。

?

? ? ??PVANet?NIPS2016 workshop

? ? ? paper:https://arxiv.org/abs/1608.08021? code:https://github.com/sanghoon/pva-faster-rcnn

? ? ? PVANet是幾個韓國人鼓搗出來的一個更深但快速的基礎網絡,在VOC2012上效果達到82.5%,接近Faster R-CNN ?+ ResNet-101 +++ 和 R-FCN的結果,但是速度上快非常多。實際驗證結果,訓練和測試速度都比baseline版本快一倍左右。不過,這個網絡非常難訓練,收斂困難,loss會比較大,選用的訓練方法是plateau,在一些比較困難的任務上,大概得好幾倍的迭代次數才能達到和VGG16性能相當程度。另外,82.5%這個性能也并非全部得益于PVANet,文章中把anchor數量增加到40多個,還做了一些小改動。個人認為,PVANet的速度廣受認可,但性能頂多和VGG16相當,不如ResNet。

?(2) Hierarchy Feature

? ? ? 代表作有HyperNet,同樣的思想在SSD和FCN中也有用到,將多層次的卷積網絡feature map接在一起

? ? ??HpyerNet?

? ? ??paper :?https://arxiv.org/pdf/1604.00600.pdf?code:?

? ? ? 以VGG-16為例,將conv1,conv3,conv5三層接在一起,形成一個Hyper Feature,以Hpyer Feature maps 代替原有的conv5_3,用于RPN和Fast-RCNN。該文章問題出發點針對小目標和定位精度,由于CNN的本身特點,隨著層數加深,特征變得越來越抽象和語義,但分辨率卻隨之下降。Conv5_3 每一個像素點對應的stride = 16 pixel,如果能在conv3_3上做預測,一個像素點對應的stride = 4 pixel,相當于可以獲得更好的精度,而conv5_3代表的語義信息對分類有幫助,結合下來,相當于一個定位精度和分類精度的折中。下圖是以AlexNet為例,不同層接法在Pascal VOC 2007上的結果,可以看到,1+3+5會取得不錯的效果。

?

2. 更精準更精細的RPN

? ? ?(1)FPN

? ? ?(2)more anchors

3. ROI分類方法

? ? ?(1)PS-ROI-POOLING

? ? ? ?R-FCN

? ? ?(2)ROI-Align & multi-task benefits

? ? ? ?Mask R-CNN?:

? ? ?(3)multi-layer roi-pooling

? ? ? ?DeepText

Paper :?https://arxiv.org/abs/1605.07314

? ? ? ?一篇將Faster RCNN應用在文字檢測的文章,里面的contribution比較瑣碎,但有一點小改進經驗證過相當有效,就是roi分別在conv4,conv5上做roi-pooling,合并后再進行分類。這樣基本不增加計算量,又能利用更高分辨率的conv4。

? ? ? ?

4. sample and post-process

? ? (1)Hard example mining?

? ? ??OHEM

? ? ??Paper: ?Code:

? ? (2)GAN

? ? ??A-Fast-RCNN?

? ? ? Paper CVPR 2017 :?https://arxiv.org/abs/1704.03414

? ? ? 這篇文章比較新穎,蹭上了GAN的熱點,利用GAN在線產生一些遮擋形變的positive sample。與Fast-RCNN比較,在VOC2007上,mAP增加了2.3%,VOC2012上增加了2.6%。

? ? (3)soft-NMS

? ? ??Soft-NMS?(Improving Object Detection With One Line of Code)

? ? ? Paper:?https://arxiv.org/pdf/1704.04503.pdf? ?code:https://github.com/bharatsingh430/soft-nms

? ? ?該篇文章主要focus在后處理NMS上,不得不承認,對于很多問題,后處理的方法會對結果產生幾個點的影響。雖然我自己試驗過,在我的任務上,Soft-NMS得到的結果和NMS完全一致,該后處理方式可能不具備推廣性,但是好在嘗試起來非常容易,代價也很小,只需要替換一個函數就可以,所以大家不妨可以試驗一下。

--------------------- 本文來自 zchang81 的CSDN 博客 ,全文地址請點擊:https://blog.csdn.net/zchang81/article/details/73176497?utm_source=copy

總結

以上是生活随笔為你收集整理的Faster R-CNN 深入理解 改进方法汇总的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。