日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > pytorch >内容正文

pytorch

深度学习之 hard negative mining (难例挖掘)

發(fā)布時間:2023/12/20 pytorch 42 豆豆
生活随笔 收集整理的這篇文章主要介紹了 深度学习之 hard negative mining (难例挖掘) 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

Hard Negative Mining Method 思想

hard是困難樣本,negative是負樣本,hard negative就是說在對負樣本分類時候,loss比較大(label與prediction相差較大)的那些樣本,也可以說是容易將負樣本看成正樣本的那些樣本。

  • 例如roi里沒有物體,全是背景,這時候分類器很容易正確分類成背景,這個就叫easy negative;
  • 如果roi里有二分之一個物體,標簽仍是負樣本,這時候分類器就容易把他看成正樣本,即假陽性(false positive),這時候就是hard negative。

hard negative mining就是多找一些hard negative加入負樣本集,進行訓(xùn)練,這樣會比easy negative組成的負樣本集效果更好。主要體現(xiàn)在虛警率更低一些(也就是false positive少)。因為它相當于一個錯題集。

如何判斷它為困難負樣本呢?也很簡單,我們先用初始樣本集去訓(xùn)練網(wǎng)絡(luò),再用訓(xùn)練好的網(wǎng)絡(luò)去預(yù)測負樣本集中剩余的負樣本,選擇其中得分最高,即最容易被判斷為正樣本的負樣本為困難樣本,加入負樣本集中,重新訓(xùn)練網(wǎng)絡(luò),循環(huán)往復(fù),然后我們會發(fā)現(xiàn):咦!我們的網(wǎng)絡(luò)的分類性能越來越強了!假陽性負樣本與正樣本間也越來越相似了!(因為此時只有這些妖怪區(qū)域能迷惑我們的分類器了)。

Hard Negative Mining Method 使用

通常 使用 Hard Negative Mining Method 的方法為:

迭代地交替訓(xùn)練,用樣本集更新模型,然后再固定模型來選擇分辨錯的目標框并加入到樣本集中繼續(xù)訓(xùn)練。傳統(tǒng),我們會使用 SVM + Hard Negative Mining Method 進行訓(xùn)練
Hard Negative Mining Method 缺點

那么傳統(tǒng)的 Hard Negative Mining Method 有什么 缺點 呢?

Hard Negative Mining Method 很難應(yīng)用到 end-to-end 的檢測模型。 因為 Hard Negative Mining Method 需要迭代訓(xùn)練,如果我們將他使用到 end-to-end 的卷積神經(jīng)網(wǎng)絡(luò),需要每次將網(wǎng)絡(luò)凍結(jié)一段時間用來生成 hard negative。而這對于使用線上優(yōu)化的算法來說是不可能的,例如 SGD (隨機梯度下降算法)。使用 SGD 來訓(xùn)練網(wǎng)絡(luò)需要上萬次更新網(wǎng)絡(luò),如果每迭代幾次就固定模型一次,這樣的速度會慢得不可想象。

我們可以觀察到在 fast rcnn 和 faster rcnn 中都沒有用到 Hard Negative Mining Method。這就是因為如上的原因,一般使用 SVM 分類器才能使用此方法(SVM 分類器和 Hard Negative Mining Method 交替訓(xùn)練)

總結(jié)

以上是生活随笔為你收集整理的深度学习之 hard negative mining (难例挖掘)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。