ECCV 2018 DaSiamRPN:《Distractor-aware Siamese Networks for Visual Object Tracking》论文笔记
? 理解出錯之處望不吝指正。
? 本文模型叫做DaSiamRPN。本文首先分析了已有的孿生網絡方法中的特征和缺點,如下圖所示:
? 如上圖所示,是幾種孿生模型對ROI提取出的特征圖。論文中提到,造成這種現象的原因是,在目標周圍的背景信息中,非語義背景(即真正的“背景”信息,如地板、天空等)占據了主要部分,語義背景(背景中的人、狗等實體,我是這么理解的)占據了極少一部分。這種不平衡的分布使得模型趨向于去學習到一個區分前景(目標+語義背景)和背景(非語義背景)的模型,而不是學習一個實例級別的表示方法。為了處理這個問題,作者在訓練集中添加了三類樣本對,提高模型的學習效果。
-
? 添加了三類樣本對
? 首先,是使用檢測數據集中樣本對。如上圖中(a)。
? 作者認為,使用ILSVRC和Youtube-BB檢測數據集,數據量還是太少,且數據集中的類別較少,不利于模型學習到泛化能力。作者提出使用ImageNet Detection和COCO數據集,通過一些數據增強技術(后文中提到包括平移、縮放、灰度變換、運動模糊等)構造出樣本對,這類樣本對用于提高模型的泛化能力。
? 其次,使用來自相同類別的負樣本對。如上圖中(b)。最后,使用來自不同類別的負樣本對。如上圖中(c)。
? 添加這兩類負樣本可以使模型在超出視線、全遮擋的情況下,避免模型漂移到其他的目標上去。這兩類樣本對用于提高模型的判別能力。
?
-
? 提出了一種增量學習方法
? 傳統的詳細學習在進行相似度計算時,使用下式:
???
? 本文中提出了一種新的選擇最優bbox的標準,如下式(用csdn的公式編輯器沒打出來argmax,有會的大佬教教我,哭...):
???
? 從上式中我們可以看出,其實就是當前位置和模板計算相似度之后,減去當前位置與search region中其他位置的相似度的加權和。
? 由于交叉相關(互相關)操作是一個線性操作,我們可以使用這個特性對計算進行加速,如下式:
???
? 再考慮結合律,我們可以將式子改為如下所示的增量學習公式,式中是學習率。
???
?
-
? 將DaSiamRPN用于Long-term跟蹤
? 當模型跟蹤失敗的時候,模型采取一種“局部-全局”增大search region的策略去重新跟蹤目標。如下圖所示(紅色是ground truth,綠色的是跟蹤結果,藍色的是search region):
? 至于如何判斷模型何時跟蹤失敗,論文中提到“Since the distractor-aware training and inference enable highquality detection score, it can be adopted to indicate the quality of tracking results.”
?
-
? 模型的實驗結果
? VOT:
? UVA:
? 提出的方法帶來的效果改進:
?
?
?
?
總結
以上是生活随笔為你收集整理的ECCV 2018 DaSiamRPN:《Distractor-aware Siamese Networks for Visual Object Tracking》论文笔记的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: CVPR 2018 HP:《Hyperp
- 下一篇: MATLAB入门级知识