日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

R-CNN , Fast R-CNN , Faster R-CNN原理及区别

發布時間:2023/12/13 编程问答 29 豆豆
生活随笔 收集整理的這篇文章主要介紹了 R-CNN , Fast R-CNN , Faster R-CNN原理及区别 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

github博客傳送門
csdn博客傳送門

==RCNN==

1、生成候選區域

使用Selective Search(選擇性搜索)方法對一張圖像生成約2000-3000個候選區域,基本思路如下:
(1)使用一種過分割手段,將圖像分割成小區域
(2)查看現有小區域,合并可能性最高的兩個區域,重復直到整張圖像合并成一個區域位置。優先合并以下區域:

  • 顏色(顏色直方圖)相近的
  • 紋理(梯度直方圖)相近的
  • 合并后總面積小的
  • 合并后,總面積在其BBOX中所占比例大的
    在合并時須保證合并操作的尺度較為均勻,避免一個大區域陸續“吃掉”其它小區域,保證合并后形狀規則。
    (3)輸出所有曾經存在過的區域,即所謂候選區域
2、特征提取

使用深度網絡提取特征之前,首先把候選區域歸一化成同一尺寸227×227。
使用CNN模型進行訓練,例如AlexNet,一般會略作簡化。

3、類別判斷

對每一類目標,使用一個線性SVM二類分類器進行判別。
輸入為深度網絡(如上圖的AlexNet)輸出的4096維特征,輸出是否屬于此類。

4、位置精修

目標檢測的衡量標準是重疊面積:許多看似準確的檢測結果,往往因為候選框不夠準確,
重疊面積很小,故需要一個位置精修步驟,對于每一個類,訓練一個線性回歸模型去判定這個框是否框得完美。

==Fast R-CNN==

Fast R-CNN主要解決R-CNN的以下問題:

1、訓練、測試時速度慢

R-CNN的一張圖像內候選框之間存在大量重疊,提取特征操作冗余。
而Fast R-CNN將整張圖像歸一化后直接送入深度網絡,緊接著送入從這幅圖像上提取出的候選區域。
這些候選區域的前幾層特征不需要再重復計算。

2、訓練所需空間大

R-CNN中獨立的分類器和回歸器需要大量特征作為訓練樣本。Fast R-CNN把類別判斷和位置精調統一用深度網絡實現,不再需要額外存儲。

下面進行詳細介紹
  • 在特征提取階段,通過CNN(如AlexNet)中的conv、pooling、relu等操作都不需要固定大小尺寸的輸入,
    因此,在原始圖片上執行這些操作后,輸入圖片尺寸不同將會導致得到的feature map(特征圖)尺寸也不同,這樣就不能直接接到一個全連接層進行分類。
    在Fast R-CNN中,作者提出了一個叫做ROI Pooling的網絡層,這個網絡層可以把不同大小的輸入映射到一個固定尺度的特征向量。
    ROI Pooling層將每個候選區域均勻分成M×N塊,對每塊進行max pooling。將特征圖上大小不一的候選區域轉變為大小統一的數據,送入下一層。
    這樣雖然輸入的圖片尺寸不同,得到的feature map(特征圖)尺寸也不同,
    但是可以加入這個神奇的ROI Pooling層,對每個region都提取一個固定維度的特征表示,就可再通過正常的softmax進行類型識別。
  • 在分類回歸階段,在R-CNN中,先生成候選框,然后再通過CNN提取特征,之后再用SVM分類,最后再做回歸得到具體位置(bbox regression)。
    而在Fast R-CNN中,作者巧妙的把最后的bbox regression也放進了神經網絡內部,與區域分類合并成為了一個multi-task模型
    實驗表明,這兩個任務能夠共享卷積特征,并且相互促進。
    Fast R-CNN很重要的一個貢獻是成功地讓人們看到了Region Proposal+CNN(候選區域+卷積神經網絡)這一框架實時檢測的希望,原來多類檢測真的可以在保證準確率的同時提升處理速度。
  • ==Faster R-CNN==

    在Faster R-CNN中加入一個提取邊緣的神經網絡,也就說找候選框的工作也交給神經網絡來做了。
    這樣,目標檢測的四個基本步驟(候選區域生成,特征提取,分類,位置精修)終于被統一到一個深度網絡框架之內。

    Faster R-CNN可以簡單地看成是“區域生成網絡+Fast R-CNN”的模型,用區域生成網絡(Region Proposal Network,簡稱RPN)來代替Fast R-CNN中的Selective Search(選擇性搜索)方法。

    RPN的工作步驟如下:

    • 在feature map(特征圖)上滑動窗口
    • 建一個神經網絡用于物體分類+框位置的回歸
    • 滑動窗口的位置提供了物體的大體位置信息
    • 框的回歸提供了框更精確的位置

    ==總結==

    R-CNN、Fast R-CNN、Faster R-CNN一路走來,基于深度學習目標檢測的流程變得越來越精簡、精度越來越高、速度也越來越快。
    基于region proposal(候選區域)的R-CNN系列目標檢測方法是目標檢測技術領域中的最主要分支之一。

    print_r('點個贊吧'); var_dump('點個贊吧'); NSLog(@"點個贊吧!") System.out.println("點個贊吧!"); console.log("點個贊吧!"); print("點個贊吧!"); printf("點個贊吧!\n"); cout << "點個贊吧!" << endl; Console.WriteLine("點個贊吧!"); fmt.Println("點個贊吧!") Response.Write("點個贊吧"); alert(’點個贊吧’)

    轉載于:https://www.cnblogs.com/Mrzhang3389/p/10228451.html

    總結

    以上是生活随笔為你收集整理的R-CNN , Fast R-CNN , Faster R-CNN原理及区别的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。