日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

透彻理解RPN: 从候选区域搜索到候选区域提取网络

發(fā)布時(shí)間:2025/3/15 编程问答 22 豆豆
生活随笔 收集整理的這篇文章主要介紹了 透彻理解RPN: 从候选区域搜索到候选区域提取网络 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

? ? ? ? ? 在目標(biāo)檢測(cè)、目標(biāo)跟蹤領(lǐng)域,提取region proposal都是最基本環(huán)節(jié)。本文概述了從 sliding window 到 selective search, 然后升級(jí)到 region proposal network的過(guò)程。 核心在于理解 selective search算法 和 region proposal network的設(shè)計(jì)思想。

1. 從sliding window 到 selective search 的候選區(qū)域提取

  • 目標(biāo)檢測(cè) vs. 目標(biāo)識(shí)別
直接作為圖像識(shí)別算法的輸入

? ? ? ? ?目標(biāo)識(shí)別算法是指在一張給定的圖像中識(shí)別出給定的物體。他將整張圖像作為輸入,然后輸出類別的標(biāo)簽并給出圖像中出現(xiàn)物體的概率。如上圖,直接輸入objection recognition算法中,算法會(huì)反饋圖像的類別dog, confident score 0.9987.

目標(biāo)檢測(cè)返回類別和邊界框

? ? ? ? ? 目標(biāo)檢測(cè)任務(wù)不僅僅要返回圖像中主要包含那些物體,而且還要返回該圖像中包含了多少物體? 他們?cè)谀睦?#xff08;一般用BoundingBox進(jìn)行標(biāo)注)?

? ? ? ? ? 目標(biāo)識(shí)別算法是所有目標(biāo)檢測(cè)算法的核心。假設(shè)我們已經(jīng)擁有了非常強(qiáng)大的目標(biāo)識(shí)別算法,但是該算法也僅僅能夠告訴我們目標(biāo)(如狗)是什么, 卻不能告訴我們目標(biāo)在哪里? 有多少個(gè)目標(biāo)?

? ? ? ? ? 為了完成目標(biāo)檢測(cè)任務(wù),我們需要選擇一個(gè)更小的區(qū)域(sub-regions,patches),然后利用目標(biāo)識(shí)別算法去識(shí)別各個(gè)patches是否包含high confident score的objections。

? ? ? ? ? 因此,一個(gè)非?;A(chǔ)但很重要的環(huán)節(jié)在于:如何從一張圖像中又快又好地提取出這樣的patches?其實(shí)最直接的方法提取region proposal(候選區(qū)域)的方式就是采用滑窗方法。但是sliding window方法非常消耗時(shí)間,因此研究學(xué)者提出了基于selective search策略的區(qū)域候選算法。

note1:提取patches算法更學(xué)術(shù)一點(diǎn)叫做region proposal algorithm

note2:好,指的是patches中盡可能恰好包括objects

note3:快,指的是有效速度。因?yàn)椴煌繕?biāo)之前存在位置和尺度差異,如果采用遍歷法,明顯就是不合理的。

  • Sliding window 滑窗技術(shù)
Sliding window 示例

? ? ? ? ?使用sliding window方法中,我們使用window對(duì)整幅圖像進(jìn)行遍歷,然后利用目標(biāo)識(shí)別算法所有的patches進(jìn)行檢查。這實(shí)際上就是一個(gè)窮舉的過(guò)程。此外,在遍歷搜索過(guò)程中,我們不僅僅要遍歷單個(gè)尺度的window,還有對(duì)多尺度的window進(jìn)行檢測(cè)。 因此,sliding window策略是非常消耗時(shí)間的。還有就是,sliding window算法對(duì)固定比例patches提取非常適合,但是由于projection的時(shí)間原因,固定的比例是很難保證的。 如果要將不同比例考慮進(jìn)去,sliding window的時(shí)間效益又將大打折扣。

  • region proposal algorithm
候選區(qū)域提取。綠框:真陽(yáng)性 true positive ?藍(lán)框:假陽(yáng)性 false positive

? ? ? ? ? sliding window (受平移、尺度、比例影響)存在的根本問(wèn)題就是漫無(wú)目的性的搜索, 恰恰region proposal algorithm就是為了解決這個(gè)問(wèn)題。候選區(qū)域提取算法將圖像作為輸入,并輸出邊界框BoundingBox,該邊界框?qū)?yīng)于圖像中最有可能是對(duì)象的所有patches。這些BoundingBox可能存在噪聲、重疊,也可能偏離了目標(biāo),但是大多數(shù)候選區(qū)域應(yīng)該與圖像中的目標(biāo)非常接近。這樣,我們?cè)诤竺嬷苯訉?duì)這些BoundingBox進(jìn)行目標(biāo)識(shí)別就好了。 在所有的region proposal algorithms中, selective search based 非常有代表性(快,有很高的召回率recall),進(jìn)而提取BoundingBox。

  • selective search
原始的輸入圖像 ? ? ? ? ? ? ? ? ? ? ? ? 采用graph-based適當(dāng)分割結(jié)果 ? ? ? ? ? ? 采用graph-based過(guò)分割結(jié)果

? ? ? ? ? selective search最核心的點(diǎn)在于通過(guò)顏色、文理、形狀或者大小等 將原始的輸入圖像劃分成等級(jí)區(qū)域(實(shí)質(zhì)就是分割,如上圖所示)。但是直接分割的圖片不能用來(lái)做物體檢測(cè),原因有二:

1 大多數(shù)物體包含倆種以上的顏色(尤其受到光照影響,一個(gè)物體可能包含更豐富的顏色信息)

2 如果物體之間有重疊,這種方法無(wú)法處理,比如杯子放在盤子上的情況

? ? ? ? ? 為了更好地解決上面的兩個(gè)問(wèn)題,自然而然的我們想到了使用更好的分割方法,但是這并不是我們的目標(biāo)(圖像分割本來(lái)就是一個(gè)非常大的領(lǐng)域)。 我們這里需要的是一個(gè)不錯(cuò)的分割結(jié)果就好,至少需要滿足分割后的區(qū)域可以盡可能的覆蓋原圖像中的物體。所以,selective search中使用了[1]中的分割算法進(jìn)行過(guò)分割(如上圖所示)。selective search將過(guò)分割圖像作為初始輸入,并執(zhí)行以下步驟:

step 1:根據(jù)論文[1]分割的圖片畫出多個(gè)框,把所有框放入列表Region中

step 2:根據(jù)相似程度(顏色,紋理,大小,形狀等),計(jì)算Region中框之間的倆倆形似度,把相似度放入列表A中

step 3:從列表A中找出相似度最大的倆個(gè)框a,b并且合并

Step 4:把合并的框加入列表Region中,從A中刪除和a,b相關(guān)的相似度,重復(fù)步驟2,直至清空A

最終只需要對(duì)Region中的框進(jìn)行圖片分類,就可以得到原圖的檢測(cè)結(jié)果。候選框從數(shù)十萬(wàn)降到幾千(R-CNN中倆千左右)。

graph-base過(guò)分割后形成Hierarchy - bottom-up 策略。它顯示了等級(jí)分割過(guò)程的初始、中間和最后一步
綠框:生成的真陽(yáng)性邊界框 true positive BoundingBox 藍(lán)框:生成的假陽(yáng)性邊界框 false positive BoundingBox
  • selective search 區(qū)域歸并

? ? ? ? ? 那么如何計(jì)算兩個(gè)區(qū)域之間的相似性? selective search運(yùn)用了基于顏色、文理、形狀、大小進(jìn)行相似性度量。

? ? ? ? ? 顏色相似性:A color histogram of 25 bins is calculated for each channel of the image and histograms for all channels are concatenated to obtain a color descriptor resulting into a 25×3 = 75-dimensional color descriptor.?對(duì)于圖像的每一個(gè)通道我們需要計(jì)算25bin的顏色直方圖,然后每一個(gè)顏色通道的直方圖拼接在一起,形成顏色描述子(75維)。

? ? ? ? ?紋理相似性:對(duì)于圖像的每個(gè)通道,利用高斯差分對(duì)8個(gè)方向進(jìn)行計(jì)算提取紋理特征。對(duì)于每個(gè)顏色通道的每個(gè)方向,利用10-bin直方圖進(jìn)行表示,這樣便形成了紋理描述子(10*8*3=240維)。

? ? ? ? ?尺寸相似性:尺度相似性鼓勵(lì)更小的區(qū)域早日合并。它確保在圖像的所有部分形成所有尺度的候選區(qū)域。如果沒(méi)有考慮這個(gè)相似度測(cè)度,那么一個(gè)區(qū)域會(huì)一個(gè)一個(gè)地吞噬所有較小的相鄰區(qū)域,那么,多個(gè)比例的候選區(qū)域?qū)⒅辉谔囟ǖ奈恢卯a(chǎn)生。

? ? ? ? ?形狀兼容性相似性:兩個(gè)區(qū)域重合比例程度。

兩個(gè)區(qū)域之間的最終相似度定義為上述4個(gè)相似點(diǎn)的線性組合。

Python+OpenCV的代碼實(shí)現(xiàn):https://download.csdn.net/download/shenziheng1/10751868。示例結(jié)果如下:

selective search采用graph-based過(guò)分割生成的候選區(qū)域(region proposal): ?降低了時(shí)間消耗,提升了候選區(qū)域的質(zhì)量 selective search采用graph-based過(guò)分割生成的候選區(qū)域(region proposal): ?降低了時(shí)間消耗,提升了候選區(qū)域的質(zhì)量

?

2. 從selective search 到 region proposal network的候選區(qū)域提取

  • CNN對(duì)目標(biāo)識(shí)別算法的革新

? ? ? ? ? 2012年論文[6]再次引燃神經(jīng)網(wǎng)絡(luò)并且開(kāi)啟以深度學(xué)習(xí)為主導(dǎo)的人工智能時(shí)代。[6]提出的AlexNet網(wǎng)絡(luò)結(jié)構(gòu)在ImageNet ILSVRC圖片分類的比賽中奪得冠軍,top-1的準(zhǔn)確率達(dá)到57.1%,top-5 達(dá)到80.2%,突然之間手工設(shè)計(jì)的特征提取方法顯得羸弱不堪,用卷積神經(jīng)網(wǎng)絡(luò)(CNN)來(lái)做特征提取成了大家的共識(shí)。 受到AlexNet影響[7]把CNN引入物體檢測(cè)的領(lǐng)域,為了方便,研究學(xué)者把[7]方法簡(jiǎn)稱為regions with CNN features,也就是R-CNN。

Region-CNN 目標(biāo)檢測(cè)框架示意圖
對(duì)輸入的圖片進(jìn)行區(qū)域提取,文中用selective search。然后對(duì)每一塊提取出來(lái)的區(qū)域縮放到統(tǒng)一的大小,輸出CNN特征向量,用分類器(SVM,討論了softmax的可行性)判斷該區(qū)域是不是某類物體,接著對(duì)選出的區(qū)域做了框回歸(bounding box regression)處理得到最后的結(jié)果:物體種類和框的位置。

這篇論文在當(dāng)時(shí)也引起了轟動(dòng),主要在于兩個(gè)方面:

1.利用CNN代替?zhèn)鹘y(tǒng)的手工特征,并證明了不同的CNN結(jié)構(gòu)對(duì)檢測(cè)效果很非常大的影響。如VGG-16的檢測(cè)性能要比AlexNet效果好得多。

2.加入了根據(jù)CNN特征對(duì)邊界框進(jìn)行回歸的方法。對(duì)比表明在SVM分類的結(jié)果上做框回歸之后會(huì)把mAP再提高4個(gè)百分點(diǎn)。

網(wǎng)絡(luò)訓(xùn)練采用的還是分段訓(xùn)練(這為后來(lái)的fast-RCNN 和 faster-RCNN提供了研究方向):

1.在ImageNet上pre-train一個(gè)圖片分類的CNN(也可以用別人提供的比如AlexNet)

2.替換訓(xùn)練好的CNN分類層,比如從AlexNet的1000 類物體換成VOC的20+1類,繼續(xù)fine tune訓(xùn)練

3.針對(duì)每一類目標(biāo)物體訓(xùn)練一個(gè)one vs rest的SVM

4.使用CNN的輸出做輸入,訓(xùn)練一組參數(shù)做bounding-box regressor修正位置

關(guān)于為什么用SVM而不是直接采用Softmax進(jìn)行分類?作者是利用大量的實(shí)驗(yàn)進(jìn)行證明,但是由于起初訓(xùn)練沒(méi)有關(guān)注正負(fù)樣本均衡,所以在后面的Fast-RCNN算法中,直接又用Softmax替代了SVM,性能更好。

  • BoundingBox回歸

? ? ? ? ? 這里可能會(huì)好奇,講了RCNN變更了目標(biāo)識(shí)別算法,又講到了BoundingBox回歸網(wǎng)絡(luò),怎么還不講Region Proposal Network? 其實(shí),算法領(lǐng)域都是基于一個(gè)baseline進(jìn)行一步一步改進(jìn)的。所以非常有必要理解一下BoundingBox優(yōu)化。

? ? ? ? ??如果不BoundingBox Regression,輸出的位置就是selective search選出的那個(gè)區(qū)域的位置,實(shí)際中是會(huì)存在偏差的如下圖所示:

紅框: selective search 提供的 候選區(qū)域,該區(qū)域經(jīng)過(guò)目標(biāo)識(shí)別算法得到的置信值最大。 綠框:我們期待的結(jié)果,也是真實(shí)標(biāo)注與selective search之間的差別。 改圖說(shuō)明了BoundingBox Regression模塊的重要性。

? ? ? ? ? selective search選出的可能是紅色的框,ground truth是綠色的框,判斷是否正確是用IoU的值來(lái)判斷,輸出紅色框會(huì)影響到結(jié)果判斷,但是已經(jīng)把飛機(jī)檢測(cè)出來(lái)了只要對(duì)紅色框做線性變換(縮放+平移),就可以了。[7]認(rèn)為,CNN輸出的特征向量里包含了信息,所以在CNN輸出的特征向量上做了一個(gè)loss計(jì)算,調(diào)整原來(lái)框的位置(相當(dāng)于對(duì)原來(lái)的框加上縮放和平移操作)。所以每一個(gè)種類都設(shè)計(jì)了邊界框回歸BoundingBox Regression,只要設(shè)計(jì)一個(gè)好的loss函數(shù),能學(xué)習(xí)到一組參數(shù)使loss收斂就可以啊。因此,loss的設(shè)計(jì)是關(guān)鍵。對(duì)于BoundingBox Regression 回歸的具體做法,會(huì)單獨(dú)研究。

  • RCNN的弊端和改進(jìn)方案

? ? ? ? ?通過(guò)上面分析,我們就會(huì)發(fā)現(xiàn),RCNN和之前的目標(biāo)檢測(cè)方法相比已經(jīng)取得了長(zhǎng)足的發(fā)展,但是仍然存在模型訓(xùn)練不合理、檢測(cè)速度慢弊端。對(duì)于這樣一個(gè)新奇的策略,必定會(huì)引起很多研究學(xué)者跟進(jìn)。緊跟著就出現(xiàn)了SSPNet和Fast-RCNN的改進(jìn)算法。

SSPnet:很好的解決了不同尺寸圖像的訓(xùn)練問(wèn)題,但是很可惜,該網(wǎng)絡(luò)不能反向傳播,所以前面的特征提取層和后圈的全連接分類層都需要單獨(dú)訓(xùn)練。所以,SPP Net的設(shè)計(jì)讓特征提取的時(shí)間成百上千倍的加快,缺點(diǎn)就是訓(xùn)練步驟麻煩。

Fast R-CNN:主要在訓(xùn)練步驟上做了優(yōu)化,主要是倆個(gè)方面: 根據(jù)SPPNet 中的spp層改進(jìn)設(shè)計(jì)了RoI Pooling,使用muti-task loss同時(shí)訓(xùn)練物體種類和位置。之前提到spp層不能進(jìn)行反向傳播,是由于金字塔的結(jié)構(gòu),Fast R-CNN就化用了SPPNet的方法,使用RoI Pooling,其實(shí)就是只用spp中金字塔的一層做池化,這樣也能產(chǎn)生固定長(zhǎng)度的特征向量,用來(lái)做分類。而且只用金字塔的一層做池化,就是一個(gè)池化操作了,那就可以做反向傳播了。Fast R-CNN最大的貢獻(xiàn)在于將目標(biāo)分類和邊界框回歸一起做,用作者的觀點(diǎn)就是:multi-task 。 核心還在如何設(shè)計(jì) multi-task loss。?分類直接在原來(lái)CNN的基礎(chǔ)上加入FC層和softmax即可; 框回歸是讓CNN的輸出直接是bounding box regressor需要的4個(gè)比例。

Fast R-CNN 檢測(cè):分類與位置同時(shí)執(zhí)行的多任務(wù)框架

做到這里了,其實(shí)感覺(jué)已經(jīng)很完美了。但是2015年,很多學(xué)者意識(shí)到 Most algorithms can benefit from end-to-end training. 其實(shí)這是很好理解的,深度學(xué)習(xí)本身就是基于數(shù)據(jù)驅(qū)動(dòng)完成了算法的性能提升。如果算法框架是End-to-End的,那么各組分(諸如區(qū)域候選提取、特征提取、邊界框回歸等)應(yīng)該耦合的更緊密。

回頭看看,無(wú)論是SSP net 還是 Fast R-CNN改進(jìn),都沒(méi)有對(duì)區(qū)域候選環(huán)節(jié)Region Proposal進(jìn)行改變,都不約而同的采用了Selective search算法。以現(xiàn)在的眼光去比喻,有點(diǎn)像造好了一輛汽車(CNN),但是在用馬(selective search)拉著跑的感覺(jué)。因?yàn)閟elective search的計(jì)算太慢了,想讓物體檢測(cè)達(dá)到實(shí)時(shí),就得改造候選框提取的方法。 這都是Faster CNN要做的,統(tǒng)一區(qū)域候選提取、分類和邊界框回歸,實(shí)現(xiàn)檢測(cè)算法的End-to-End.

  • ?錨點(diǎn)機(jī)制和區(qū)域候選網(wǎng)絡(luò)設(shè)計(jì)

? ? ? ? ? Faster RCNN[10]提出了一種方法,在網(wǎng)絡(luò)中設(shè)計(jì)一個(gè)模塊來(lái)提取候選框(region proposal networks),為什么要用網(wǎng)絡(luò)實(shí)現(xiàn)?因?yàn)樽畛踝髡呔捅е头诸惥W(wǎng)絡(luò)共用部分CNN的目的。[10]有個(gè)很重要的概念:錨點(diǎn)。理解RPN的關(guān)鍵也就在錨點(diǎn)上。

? ? ? ? ? 錨點(diǎn),字面理解就是標(biāo)定位置的固定的點(diǎn)。在提框機(jī)制中,是預(yù)先設(shè)定好一些固定的點(diǎn)(anchor)和框(anchor box)的意思。如下圖所示:

Faster R-CNN中anchor的解釋:假設(shè)圖像上設(shè)定4個(gè)錨點(diǎn)(2x2),那么就可以看作2x2的格子,每個(gè)格子的中心叫做錨點(diǎn)。以錨點(diǎn)為中心,給定倆個(gè)寬高比(1:2, 2:1),畫倆個(gè)框。綠色和紅色的框就是錨點(diǎn)框(anchor box)。也就是說(shuō),每一個(gè)錨點(diǎn)都可以產(chǎn)生倆個(gè)錨點(diǎn)框,這些框就是固定在這里存在的,不會(huì)變也不會(huì)動(dòng)。
當(dāng)模型輸出的預(yù)測(cè)位置是棕色虛線框時(shí),計(jì)算預(yù)測(cè)框和每一個(gè)錨點(diǎn)框的誤差。方法是:首先用bounding box regression的方法計(jì)算每一個(gè)anchor box 到真值框的偏移量t1,每一個(gè)scale的anchor box都需要bounding box regressor; 再計(jì)算預(yù)測(cè)框到每一個(gè)anchor box的偏移量t2 , 最后使回歸損失L1(t1-t2)最小。

? ? ? ? ? 這里可能會(huì)產(chǎn)生一個(gè)問(wèn)題,為什么不直接計(jì)算預(yù)測(cè)框和真值框的誤差,而是要通過(guò)anchor作為中間傳導(dǎo)呢?這和模型的輸出有關(guān)系,RPN的輸出位置信息并不是框的位置?(x, y, w, h),而是錨點(diǎn)框的偏移量?t2。因此需要學(xué)習(xí)?t2和?t1的誤差最小。以上圖為例,全圖共4個(gè)錨點(diǎn),每個(gè)錨點(diǎn)產(chǎn)生2個(gè)錨點(diǎn)框。所以一張圖產(chǎn)生4×2=8個(gè)錨點(diǎn)框,RPN的輸出是對(duì)每一個(gè)錨點(diǎn)框輸出種類(前景后景)置信度?+ 位置偏移量?t2,共8×(2+4)個(gè)值。

? ? ? ? ? 所以整個(gè)Fast R-CNN的算法流程為:

Faster R-CNN檢測(cè)框架流圖: 整個(gè)網(wǎng)絡(luò)分為兩個(gè)部分RPN + Detection。1. 輸入圖像,用CNN提特征,在CNN輸出的特征圖(feature map)上做anchor處理。2. 假設(shè)特征圖通道數(shù)是256。那么特征圖的尺寸就相當(dāng)于設(shè)定了多少個(gè)錨點(diǎn)。例如,特征圖長(zhǎng)寬是13x13, 那就有169個(gè)錨點(diǎn),每一個(gè)錨點(diǎn)按照論文中的說(shuō)法可以產(chǎn)生9個(gè)錨點(diǎn)框,這9個(gè)錨點(diǎn)框共用一組1×256的特征,即錨點(diǎn)所在位置上所有通道的數(shù)據(jù),接一個(gè)1×1的卷積核控制維度,做位置回歸和前后景判斷,這就是RPN的輸出。3. 在RPN的輸出基礎(chǔ)上,對(duì)所有anchor box的前景置信度排序,挑選出前top-N的框作為預(yù)選框proposal, 繼續(xù)CNN做進(jìn)一步特征提取,最后再進(jìn)行位置回歸和物體種類判斷。

Faster R-CNN的訓(xùn)練方法有好幾種,主要分為拆分訓(xùn)練和端到端訓(xùn)練。

拆分訓(xùn)練:先訓(xùn)練RPN,從所有anchor box中隨機(jī)挑選256個(gè),保持正樣本負(fù)樣本比例1:1(正樣本不夠時(shí)用負(fù)樣本補(bǔ));再?gòu)腞PN的輸出中,降序排列所有anchor box的前景置信度,挑選top-N個(gè)候選框叫做proposal, 做分類訓(xùn)練。

端到端訓(xùn)練:理論上可以做端到端的訓(xùn)練,但是由于anchor box提取的候選框中負(fù)樣本占大多數(shù),有的圖中負(fù)樣本和正樣本的比例可以是1000:1, 導(dǎo)致直接訓(xùn)練難度很大。真正的端到端的目標(biāo)檢測(cè)網(wǎng)絡(luò)還是有的,例如one-stage中代表的YOLO、SSD算法。速度很快,但是精度差了點(diǎn)。

Faster R-CNN最核心的工作在于在提取特征的過(guò)程中完成候選框提取的操作,大大加快了物體檢測(cè)的速度。

3. 參考資料

1. 基于圖的高效分割算法:Efficient Graph-Based Image Segmentation | IJCV2004

  • http://cs.brown.edu/people/pfelzens/segment/

2. selective search 策略用于目標(biāo)識(shí)別:Selective Search for Object Recognition | IJCV2013

  • https://ivi.fnwi.uva.nl/isis/publications/2013/UijlingsIJCV2013/UijlingsIJCV2013.pdf

3. selective search策略用于目標(biāo)檢測(cè):Selective Search for Object Detection | LearnOpenCV2017

  • https://www.learnopencv.com/selecti-search-for-object-detection-cpp-python/

4. sliding window策略用于目標(biāo)檢測(cè):Sliding Windows for Object Detection | PyimageSearch2015

5. 其他常用的region proposal algorithms:

  • Objectness measure:http://groups.inf.ed.ac.uk/calvin/objectness/
  • CPMC: Constrained Parametric Min-Cuts for Automatic Object Segmentation:?http://www.maths.lth.se/matematiklth/personal/sminchis/code/cpmc/index.html
  • Category Independent Object Proposals:http://vision.cs.uiuc.edu/proposals/

6. 神經(jīng)網(wǎng)絡(luò)邁向深度學(xué)習(xí)的大作:ImageNet Classification with Deep Convolution Neural Network | NIPS2012

  • http://dblp.uni-trier.de/db/conf/nips/nips2012.html#KrizhevskySH12

7. RCNN用于目標(biāo)檢測(cè)論文:Rich features hierarchies for accurate object detection and semantic segmentation | CVPR2014

  • http://128.84.21.199/abs/1311.2524

8. BoundingBox Regression:http://caffecn.cn/?/question/160

9. RCNN的第一批改進(jìn)算法:

  • SSPNet:?Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition | ECCV2014 + PAMI2015
  • Fast R-CNN | ICCV2015?https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=7410526

10. End-to-End檢測(cè)框架: Faster R-CNN | NIPS2016

  • https://dl.acm.org/citation.cfm?id=2969239.2969250
  • YOLO v1:?You Only Look Once: Unified, Real-Time Object Detection | CVPR2016
  • YOLO v2:?YOLO9000: Better, Faster, Stronger | CVPR2017
  • YOLO v3:?YOLOv3: An Incremental Improvement | CVPR2018
  • SSD: SSD: Single Shot MultiBox Detector | ECCV2016
  • FPN:?Feature Pyramid Networks for Object Detection | CVPR2017

總結(jié)

以上是生活随笔為你收集整理的透彻理解RPN: 从候选区域搜索到候选区域提取网络的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。