日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > 目标检测 >内容正文

目标检测

深度学习目标检测系列:RCNN系列算法图解

發布時間:2025/3/21 目标检测 140 豆豆
生活随笔 收集整理的這篇文章主要介紹了 深度学习目标检测系列:RCNN系列算法图解 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

? ? ? ?在生活中,經常會遇到這樣的一種情況,上班要出門的時候,突然找不到一件東西了,比如鑰匙、手機或者手表等。這個時候一般在房間翻一遍各個角落來尋找不見的物品,最后突然一拍大腦,想到在某一個地方,在整個過程中有時候是很著急的,并且越著急越找不到,真是令人沮喪。但是,如果一個簡單的計算機算法可以在幾毫秒內就找到你要找的物品,你的感受如何?是不是很驚奇!這就是對象檢測算法(object detection)的力量。雖然上述舉的生活例子只是一個很簡單的例子,但對象檢測的應用范圍很廣,跨越多個不同的行業,從全天候監控到智能城市的實時車輛檢測等。簡而言之,物體檢測是強大的深度學習算法中的一個分支。
? ? ? ?在本文中,我們將深入探討可以用于對象檢測的各種算法。首先從屬于RCNN系列算法開始,即RCNN、 Fast RCNN和 Faster RCNN。在之后的文章中,將介紹更多高級算法,如YOLO、SSD等。


1.解決對象檢測任務的簡單方法(使用深度學習)

? ? ? ?下圖說明了對象檢測算法是如何工作。圖像中的每個對象,從人到風箏都以一定的精度進行了定位和識別。



? ? ? ?下面從最簡單的深度學習方法開始,一種廣泛用于檢測圖像中的方法——卷積神經網絡(CNN)。如果讀者對CNN算法有點生疏,建議閱讀此文。
? ? ? ?這里僅簡要總結一下CNN的內部運作方式:



? ? ? ?首先將圖像作為輸入傳遞到網絡,然后通過各種卷積和池化層處理,最后以對象類別的形式獲得輸出。
? ? ? ?對于每個輸入圖像,會得到一個相應的類別作為輸出。因此可以使用這種技術來檢測圖像中的各種對象。
  • 1.首先,將圖像作為輸入;

  • 2.然后,將圖像分成不同的區域;

  • 3.然后,將每個區域視為單獨的圖像;
  • 4.將所有這些區域傳遞給CNN并將它們分類為各種類別;
  • 5.一旦將每個區域劃分為相應的類后,就可以組合所有這些區域來獲取具有檢測到的對象的原始圖像:

? ? ? ?使用這種方法會面臨的問題在于,圖像中的對象可以具有不同的寬高比和空間位置。例如,在某些情況下,對象可能覆蓋了大部分圖像,而在其他情況下,對象可能只覆蓋圖像的一小部分,并且對象的形狀也可能不同。
? ? ? ?基于此,需要劃分大量的區域,這會花費大量的計算時間。因此,為了解決這個問題并減少區域數量,可以使用基于區域的CNN,它使用提議方法選擇區域。

2.基于區域的卷積神經網絡

2.1 RCNN的思想

? ? ? ?RCNN算法不是在大量區域上工作,而是在圖像中提出了一堆方框,并檢查這些方框中是否包含任何對象。RCNN 使用選擇性搜索從圖像中提取這些框。
? ? ? ?下面介紹選擇性搜索以及它如何識別不同的區域。基本上四個區域形成一個對象:不同的比例、顏色、紋理和形狀。選擇性搜索在圖像中識別這些模式,并基于此提出各種區域。以下是選擇性搜索如何工作的簡要概述:

  • 首先, 將圖像作為輸入:

  • 然后,它生成初始子分段,以便獲得多個區域:

  • 之后,該技術組合相似區域以形成更大的區域(基于顏色相似性、紋理相似性、尺寸相似性和形狀兼容性):

  • 最后,這些區域產生最終的對象位置(感興趣的區域);

? ? ? ?下面是RCNN檢測對象所遵循的步驟的簡要總結:

  • 1.首先采用預先訓練的卷積神經網絡;
  • 2.重新訓練該模型模型——根據需要檢測的類別數量來訓練網絡的最后一層(遷移學習);
  • 3.第三步是獲取每個圖像的感興趣區域。然后,對這些區域調整尺寸,以便其可以匹配CNN輸入大小;
  • 4.獲取區域后,使用SVM算法對對象和背景進行分類。對于每個類,都訓練一個二分類SVM;
  • 最后,訓練線性回歸模型,為圖像中每個識別出的對象生成更嚴格的邊界框;

[對上述步驟進行圖解分析](http://www.robots.ox.ac.uk/~tvg/publications/talks/Fast-rcnn-slides.pdf):

  • 首先,將圖像作為輸入:

  • 然后,使用一些提議方法獲得感興趣區域(ROI)(例如,選擇性搜索):

  • 之后,對所有這些區域調整尺寸,并將每個區域傳遞給卷積神經網絡:

  • 然后,CNN為每個區域提取特征,SVM用于將這些區域劃分為不同的類別:

  • 最后,邊界框回歸(Bbox reg)用于預測每個已識別區域的邊界框:

? ? ? ?以上就是RCNN檢測物體的全部流程。

2.2 RCNN的問題

? ? ? ?從上節內容可以了解到RCNN是如何進行對象檢測的,但這種技術有其自身的局限性。以下原因使得訓練RCNN模型既昂貴又緩慢:

  • 基于選擇性搜索算法為每個圖像提取2,000個候選區域;
  • 使用CNN為每個圖像區域提取特征;
  • RCNN整個物體檢測過程用到三種模型:

    • CNN模型用于特征提取;
    • 線性svm分類器用于識別對象的的類別;
    • 回歸模型用于收緊邊界框;

? ? ? ?這些過程相結合使得RCNN非常慢,對每個新圖像進行預測需要大約40-50秒,這實際上使得模型在面對巨大的數據集時變得復雜且幾乎不可能應用。
? ? ? ?好消息是存在另一種物體檢測技術,它解決了RCNN中大部分問題。

3.了解Fast RCNN

3.1Fast RCNN的思想

? ? ? ?RCNN的提出者Ross Girshick提出了這樣的想法,即每個圖像只運行一次CNN,然后找到一種在2,000個區域內共享該計算的方法。在Fast RCNN中,將輸入圖像饋送到CNN,CNN生成卷積特征映射。使用這些特征圖提取候選區域。然后,使用RoI池化層將所有建議的區域重新整形為固定大小,以便將其饋送到全連接網絡中。
? ? ? ?下面將其分解為簡化概念的步驟:

  • 1.首先將圖像作為輸入;
  • 2.將圖像傳遞給卷積神經網絡,生成感興趣的區域;
  • 3.在所有的感興趣的區域上應用RoI池化層,并調整區域的尺寸。然后,每個區域被傳遞到全連接層的網絡中;
  • 4.softmax層用于全連接網以輸出類別。與softmax層一起,也并行使用線性回歸層,以輸出預測類的邊界框坐標。

? ? ? ?因此,Fast RCNN算法中沒有使用三個不同的模型,而使用單個模型從區域中提取特征,將它們分成不同的類,并同時返回所標識類的邊界框。
? ? ? ?對上述過程進行可視化講解:

  • 將圖像作為輸入:

  • 將圖像傳遞給卷積神經網絡t,后者相應地返回感興趣的區域:

  • 然后,在提取的感興趣區域上應用RoI池層,以確保所有區域具有相同的大小:

  • 最后,這些區域被傳遞到一個全連接網絡,對其進行分類,并同時使用softmax和線性回歸層返回邊界框:

? ? ? ?上述過程說明了Fast RCNN是如何解決RCNN的兩個主要問題,即將每個圖像中的1個而不是2,000個區域傳遞給卷積神經網絡,并使用一個模型來實現提取特征、分類和生成邊界框。

3.2Fast RCNN的問題

? ? ? ?Fast RCNN也存在一定的問題,它仍然使用選擇性搜索作為查找感興趣區域的提議方法,這是一個緩慢且耗時的過程,每個圖像檢測對象大約需要2秒鐘。
因此,又開發了另一種物體檢測算法——Faster RCNN。

4.了解Faster RCNN

4.1. Faster RCNN的思想

? ? ? ?Faster RCNN是Fast RCNN的修改版本,二者之間的主要區別在于,Fast RCNN使用選擇性搜索來生成感興趣區域,而Faster RCNN使用“區域提議網絡”,即RPN。RPN將圖像特征映射作為輸入,并生成一組提議對象,每個對象提議都以對象分數作為輸出。
? ? ? ?以下步驟通常采用Faster RCNN方法:

  • 1.將圖像作為輸入并將其傳遞給卷積神經網絡,后者返回該圖像的特征圖;
  • 2.在這些特征圖上應用RPN,返回提議對象及其分數;
  • 3.在這些提議對象上應用RoI池層,以將所有提案降低到相同的大小;
  • 4.最后,將提議傳遞到全連接層,該層在其頂部具有softmax層和線性回歸層,以對對象的邊界框進行分類和輸出;


? ? ? ?這里簡要解釋一下RPN是如何運作的:
? ? ? ?首先,Faster RCNN從CNN獲取特征圖并將它們傳遞到區域提議網絡。RPN在這些特征圖上使用滑動窗口,每個窗口生成不同形狀和大小的k個方框(?Anchor boxe):



? ? ? ?方框是固定尺寸的邊界箱,具有不同的形狀和尺寸。對于每個方框,RPN預測兩件事:
  • 預測錨是對象的概率;
  • 用于邊界框回歸器調整錨點以更好地適合物體的形狀;

? ? ? ?在有了不同形狀和大小的邊界框后,將其傳遞到RoI池層。對每個提案并對其進行裁剪,以便每個提案都包含一個對象。這就是RoI池層所做的事情,它為每個方框提取固定大小的特征圖:



? ? ? ?然后將這些特征圖傳遞到全連接層,該層具有softmax和線性回歸層,最終對對象進行分類并預測已識別對象的邊界框。

4.2Faster RCNN的問題

? ? ? ?上述討論過的所有對象檢測算法都使用區域來識別對象,且網絡不會一次查看完整圖像,而是按順序關注圖像的某些部分,這樣會帶來兩個復雜性的問題:

  • 該算法需要多次通過單個圖像來提取到所有對象;
  • 由于不是端到端的算法,不同的系統一個接一個地工作,整體系統的性能進一步取決于先前系統的表現效果。

5.總結

下表是總結了本文中介紹的所有算法

算法特征預測時間限制
CNN將圖像分成多個區域,將每個區域分類為不同的類別-需要很多區域來準確預測,因此計算時間長
RCNN使用選擇性搜索生成區域,從每個圖像中提取大約2000個區域40-50秒每個區域分別傳遞給CNN的計算時間也很長,且使用三種不同的模型進行預測
Fast RCNN每個圖像只傳遞一次到CNN,并提取特征圖。在這些地圖上使用選擇性搜索來生成預測。將RCNN中使用的所有三種模型組合在一起2秒選擇性搜索很慢,因此計算時間仍然很長
Faster RCNN用區域提議網絡替換選擇性搜索方法,使算法更快0.2秒對象提議需要時間,并且由于不同的系統一個接一個地工作,系統的性能取決于先前系統的表現效果

作者信息

PULKIT SHARMA,機器學習和深度學習
本文由阿里云云棲社區組織翻譯。
文章原標題《A Step-by-Step Introduction to the Basic Object Detection Algorithms (Part 1)》,譯者:海棠,審校:Uncle_LLD。
文章為簡譯,更為詳細的內容,請查看原文。

總結

以上是生活随笔為你收集整理的深度学习目标检测系列:RCNN系列算法图解的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 91丨九色丨蝌蚪丨老版 | 国产乡下妇女做爰毛片 | 亚洲图片视频小说 | 三上悠亚激情av一区二区三区 | 欧美黄色影院 | 国产做受91 | 豆花免费跳转入口官网 | 日日噜噜噜夜夜爽爽狠狠视频97 | 精品一区二区三区四区五区 | 欧美一级色 | 美女高潮黄又色高清视频免费 | 亚洲精品aⅴ中文字幕乱码 国产精品调教视频 | 亚洲免费中文字幕 | 国产亚洲av片在线观看18女人 | h片在线免费观看 | sm在线观看 | 国产精品一区二区三区线羞羞网站 | 二区三区不卡 | 丁香婷婷综合激情五月色 | 亚洲成人av | 天天操免费视频 | 欧美一级片a | 操夜夜操| 日本三级韩国三级美三级91 | 朝桐光av在线 | 一本到久久 | 波多野结衣中文字幕在线播放 | 毛片毛片毛片毛片毛片毛片毛片 | 黄色视屏网站 | 国产黄频 | 日韩一区二区免费播放 | 92国产精品 | 1000部国产精品成人观看 | 亲嘴脱内衣内裤 | 日韩第一页| 国产精品1234区 | 这里只有精品久久 | 午夜中出 | 德国经典free性复古xxxx | 亚洲人成电影一区二区在线 | 午夜免费福利在线观看 | 午夜精品电影 | 久久狠狠婷婷 | 中文在线8资源库 | 久草97| 亚洲第一成肉网 | 久久久久夜 | 欧美人体视频一区二区三区 | 欧美三级欧美成人高清 | 成人国产a | 韩国女主播一区 | 婷婷丁香在线 | 青青草视频免费看 | 成人毛片一区二区三区 | 久久蜜臀| 美女福利视频网 | 少妇一级淫片免费放播放 | 中文在线观看免费 | 夜夜高潮夜夜爽国产伦精品 | 欧美成人综合在线 | 寡妇高潮一级视频免费看 | 日本黄色高清 | 亚洲人在线视频 | 男人舔女人下部高潮全视频 | 亚洲一级Av无码毛片久久精品 | 蜜臀久久99精品久久久画质超高清 | 国产成人无码AA精品区 | 国产夫妻在线 | 日本高清视频在线播放 | 国产精品一色哟哟哟 | 91蝌蚪视频在线观看 | www.香蕉视频在线观看 | 欧美激情性生活 | 看毛片网站 | 免费国产一区 | 激情综合网站 | 久久国产精品久久久久久 | 国产精品天天干 | 999伊人| 五月天综合在线 | 色就色欧美| 国产成人黄色av | av片久久 | 人人妻人人澡人人爽精品 | 天天射天天射 | 一级片免费播放 | 日韩av在线网 | 麻豆美女视频 | 超碰免费看 | 精品孕妇一区二区三区 | 岛国成人在线 | 91色偷偷| 日毛片 | 欧美情爱视频 | 少妇人妻无码专区视频 | av免费网 | 中文字幕在线观看91 | 少妇av | 国产在线精品视频 |