CVPR 2020目标跟踪多篇开源论文(下)
CVPR 2020目標跟蹤多篇開源論文(下)
- Cooling-Shrinking Attack:
Blinding the Tracker with Imperceptible Noises
作者團隊:大連理工大學(盧湖川組)&鵬城實驗室等
論文鏈接:https://arxiv.org/abs/2003.09595
代碼鏈接:https://github.com/MasterBin-IIAU/CSA
注:本文提出一種針對
SiamRPN++ 的對抗攻擊算法,可以使SiamRPN++跟蹤器的性能大幅度下降。
- Siam R-CNN:通過重新檢測進行視覺跟蹤
作者團隊:亞琛工業(yè)大學(RWTH)&牛津大學
主頁鏈接:https://www.vision.rwth-aachen.de/page/siamrcnn論文鏈接:https://arxiv.org/abs/1911.12836
代碼鏈接:https://github.com/VisualComputingInstitute/SiamR-CNN
注:Siam
R-CNN性能優(yōu)于 SiamRPN++、DiMP和SiamFC等網(wǎng)絡
- ROAM:循環(huán)優(yōu)化目標跟蹤模型
作者團隊:騰訊AI Lab&香港城市大學&滴滴出行論文鏈接:https://arxiv.org/abs/1907.12006
代碼鏈接:https://github.com/skyoung/ROAM
注:在OTB、VOT等數(shù)據(jù)集上,表現(xiàn)SOTA!性能優(yōu)于MetaTracker、DaSiamRPN和MDNet等網(wǎng)絡
在本文中,我們設計了一個由響應生成和邊界框回歸組成的跟蹤模型,其中第一個組件產(chǎn)生一個熱圖,以指示物體在不同位置的存在,第二部分將相對邊界框位移回歸到在其上的anchor滑動窗口位置。由于兩個組件都使用了可調(diào)整大小的卷積filter來適應對象的形狀變化,因此我們的跟蹤模型無需枚舉大小不同的anchor,從而節(jié)省了模型參數(shù)。為了有效地使模型適應外觀變化,我們建議離線訓練循環(huán)神經(jīng)優(yōu)化器以在元學習設置中更新跟蹤模型,這可以在幾個梯度步驟中使模型收斂。這提高了更新跟蹤模型的收斂速度,同時獲得了更好的性能。我們在OTB,VOT,LaSOT,GOT-10K和TrackingNet基準測試中對我們的跟蹤器ROAM和ROAM++進行了廣泛的評估,并且我們的方法相對于最新的算法表現(xiàn)良好。
- D3S:判別式Single Shot分割目標跟蹤器
作者團隊:盧布爾雅那大學等
論文鏈接:https://arxiv.org/abs/1911.08862
代碼鏈接:https://github.com/alanlukezic/d3s
注:性能優(yōu)于SiamRPN++、ATOM和SiamMask等網(wǎng)絡,速度可達25 FPS!
基于模板的判別式跟蹤器由于其健壯性目前是主要的跟蹤范例,但僅限于邊界框跟蹤和有限范圍的轉(zhuǎn)換模型,這降低了其定位精度。我們提出了一種判別式的single-shot分割跟蹤器-D3S,它縮小了視覺對象跟蹤和視頻對象分割之間的差距。Single-shot網(wǎng)絡應用兩個具有互補幾何特性的目標模型,一個對廣泛的變換(包括非剛性變形)保持不變,另一個模型則假定為剛性對象,以同時實現(xiàn)高魯棒性和在線目標分割。D3S無需按數(shù)據(jù)集進行微調(diào),并且僅針對分割進行訓練作為主要輸出,因此在VOT2016,VOT2018和GOT-10k基準測試中,其性能均優(yōu)于所有跟蹤器,并且在TrackingNet上的性能接近最先進的跟蹤器。D3S在視頻對象分割基準上勝過領先的分割跟蹤器SiamMask,并且與頂級視頻對象分割算法表現(xiàn)相當,同時運行速度快了一個數(shù)量級,接近實時。
總結
以上是生活随笔為你收集整理的CVPR 2020目标跟踪多篇开源论文(下)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: CVPR 2020目标跟踪多篇开源论文(
- 下一篇: 车载智能HUD