日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

目标跟踪 MOSSE(Visual Object Tracking using Adaptive Correlation Filters)

發布時間:2023/12/10 编程问答 48 豆豆
生活随笔 收集整理的這篇文章主要介紹了 目标跟踪 MOSSE(Visual Object Tracking using Adaptive Correlation Filters) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

文章標題:《Visual Object Tracking using Adaptive Correlation Filters》
文章地址:http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.294.4992&rep=rep1&type=pdf
文章代碼:(python)https://github.com/opencv/opencv/blob/master/samples/python/mosse.py
?????(C++)https://github.com/opencv/opencv_contrib/blob/master/modules/tracking/samples/tutorial_customizing_cn_tracker.cpp

2010年CVPR的一篇的文章


Abstract

相關濾波器(correlation filters)雖然用得不多,但是在物體被旋轉、遮擋或者有其它干擾的復雜情況下實施跟蹤,速度要比當前的先進技術快 202020 倍。最古老、最簡單的相關濾波器使用了簡單的模板,實際跟蹤時不太好用。ASEF 和 UMACE 等現代一點的方法性能好一點,但是它們的訓練需求不太適應用于跟蹤。視覺跟蹤任務要求從單幀圖像訓練出魯棒的濾波器,并且在跟蹤過程中,根據目標外觀的變化進行動態調整。

本文提出了一種新型相關濾波器:MOSSE(Minimum Output Sum of Squared Error),我們在初始化的時候,從一幀圖像中產生穩定的相關濾波器。基于MOSSE濾波器的跟蹤器以每秒 669669669 幀的速度運行,對光照、比例、姿態和非剛性變形的變化具有魯棒性。跟蹤的時候根據峰值與旁瓣比(peak-to-sidelobe ratio,PSR)判斷是否發生遮擋,以此決定是否暫停跟蹤,等物體重新出現時恢復跟蹤。


具體做法

獲取選區:

首先把輸入圖像轉為灰度圖,選取跟蹤區域。修改選區框的尺寸,使得該尺寸是做離散傅里葉變換的最佳尺寸。
然后根據選區創建漢寧窗(HanningWindow),它用于突出圖像中心區域,減弱圖像邊緣區域。(這個后面用到)
把它裁剪出來,得到輸入數據 fff




預處理:

常規操作。把輸入圖像 fff 的數據取對數,使數據無偏,符合正態分布。對數效果示意圖:

然后減均值,除以方差,把數據標準化(Normaization)。

最后乘以漢寧窗。



建立求解目標:

設置我們對該選區的期望輸出響應 ggg。它是一個中間值很大,四周值很小的矩形圖片,尺寸和選區尺寸一樣大。
可視化如下:

(圖1)

(具體做法可以看代碼)

我們希望訓練得到一個相關過濾器 h\color{red}hh,使 f☆h=gf ☆ h = gfh=g


其中符號 ☆☆ 表示做 “相關” 運算。

“相關” 運算和 “卷積” 運算很像,二維情況下,對卷積核關于 222 個軸先后旋轉 180°180^{\circ}180°,再做卷積,就是 “相關”。
所以主要是 “核” 不同。 具體去網上查資料或者看岡薩雷斯的《數字圖像處理》(第四版) p101。

如果訓練良好,這個相關過濾器 hhh 大概長這樣:




怎樣找到 hhh 呢?

我們知道在傅里葉域做乘法相當于在空間域做卷積,于是先通過快速傅里葉變換 (FFTFFTFFT) 把數據從圖像空間域轉到傅里葉域,然后在傅里葉域進行操作,這樣可以減少計算量。我們用對應的大寫字母表示傅里葉域的數據:

?????輸入圖像: F=F(f)F = \mathcal{F}(f)F=F(f) , 相關過濾器:H=F(h)H= \mathcal{F}(h)H=F(h) ,輸出響應:G=F(g)G= \mathcal{F}(g)G=F(g)

于是相關運算在傅里葉域表示為: F⊙H?=G(1)F \; \odot \; H^* = G \tag{1} FH?=G(1)

其中符號 ⊙\odot 表示逐個元素的相乘,符號 ?*? 表示復共軛,也就是虛部取相反的符號。

這個運算的速度主要取決于傅里葉變換和傅里葉逆變換,時間復雜度上限是 O(PlogP)O(PlogP)O(PlogP)PPP 是選區的像素數量。




求解:

在初始化的時候,我們有 iii 組數據,對于輸入圖像數據 FiF_iFi?,我們期望輸出的響應為 GiG_iGi?
通過求解以下最小化問題,“訓練” 出我們期望的相關核 HHHmin?H?∑i∣Fi⊙H??Gi∣2(3)\min_{H^*} \sum^{}_{i} | F_i \odot H^* - G_i |^2 \tag{3}H?min?i?Fi?H??Gi?2(3)

這叫做最小化平方誤差和(Sum of Squared Error,SSE),文章的標題和跟蹤器的名字由此而來。

作者在文章的附錄中給出了求解公式。作者表示這是一個凸的,使偏導為 000 得到求解公式:H?=∑iGi⊙Fi?∑iFi⊙Fi?(4)H^* = \frac{\sum_i G_i \odot F_i^*} {\sum_i F_i \odot F_i^*} \tag{4} H?=i?Fi?Fi??i?Gi?Fi???(4)

iii 組數據怎么來? 代碼中 i=128i=128i=128,在初始化的時候,對輸入圖像 fff128128128 次隨機仿射變換(旋轉、拉伸等)得到一系列圖:

每張圖片輸出響應 GiG_iGi? 不變,依舊是用(圖1)那個 ggg 的傅里葉逆變換 GiG_iGi?。將 FiF_iFi?GiG_iGi? 代入式 (4) 求得 HHH


不做仿射變換,只用一張原圖也可以,但是這樣得到的濾波器太精確,會過擬合這幅圖像,當應用到新圖像 (下一幀) 的時候容易跟蹤失敗。
這種對數據增強然后求平均的方法,可以產生一個更具泛化能力的濾波器。
(對弱分類器的輸出進行平均,從而產生一個強得多的分類器)。

另外,我們還對圖片加入了白噪聲 ?\epsilon? ,具有正則化的效果。可以得到具有更好的噪聲容忍能力的濾波器。
在兩個地方加,一個是圖片預處理的時候加,一個是在式 (4) 中加:Fi⊙Fi?+?F_i \odot F_i^* +\epsilonFi?Fi??+?

初始化完畢后,就得到了濾波器模板 HHH




在線更新:(選區框)

在跟蹤問題中,目標不總是居中的。

例如當下一幀數據來到的時候,我們的選區(目標框)還處于原來的位置,但是里面的目標已經移動了。

fff 中峰值會隨著目標的移動而移動。用目前的濾波器 HHH 做相關時,得到的響應也會發生變化:

通過計算響應峰值點的相對位移,來更新跟蹤框的坐標,使目標仍處于跟蹤框中心。

值得注意的是,目標框的大小沒有得到更新,這也是 MOSSE 算法的不足之一。




在線更新:(濾波器)

在跟蹤的過程中,目標通常會發生旋轉、縮放、姿態、光照的變化,甚至外觀發生非剛性形變,所以濾波器需要隨之適應和更新。

H1=∑iGi⊙Fi?H_1 = \sum_i G_i \odot F_i^*H1?=i?Gi?Fi??H2=∑iFi⊙Fi?H_2 = \sum_i F_i \odot F_i^*H2?=i?Fi?Fi??
則式 (4) 簡寫為:H?=H1H2H^* = \frac{H_1}{H_2} H?=H2?H1??

下一幀數據 FnF_{n}Fn? 來到的時候,通過以下式子更新 HHHH1new=(1?η)H1+ηG⊙Fn?H2new=(1?η)H2+ηFn⊙Fn?H_1^{new} = \textcolor{red}{(1-\eta)}\;H_1 + \textcolor{red}{ \eta }\; G \odot F_{n}^* \\[1em] H_2^{new} = \textcolor{red}{(1-\eta)}\;H_2 + \textcolor{red}{ \eta }\; F_{n} \odot F_{n}^* H1new?=(1?η)H1?+ηGFn??H2new?=(1?η)H2?+ηFn?Fn??
即:
H?=(1?η)H1+ηG⊙Fn?(1?η)H2+ηFn⊙Fn?H^* = \frac{ \textcolor{red}{(1-\eta)}\;H_1 + \textcolor{red}{ \eta }\; G \odot F_{n}^*} {\textcolor{red}{(1-\eta)}\;H_2 + \textcolor{red}{ \eta }\; F_{n} \odot F_{n}^*} H?=(1?η)H2?+ηFn?Fn??(1?η)H1?+ηGFn???

η\etaη 稱為學習率,實際中取 η=0.125\eta = 0.125η=0.125 效果較好。


得到新的過濾器和新的選區,就可以進行下一幀的跟蹤了。不斷迭代這個過程。




失敗判定與PSR:

我們用 PSR(Peak to Sidelobe Ratio)度量響應尖峰的強度。
對于相關輸出 ggg,我們找出峰值點 gmaxg_{\text{max}}gmax?,以峰值點為中心建立 11×1111\times 1111×11 的矩形框。
計算這個矩形區域的均值 μs1\mu_{\text{s1}}μs1? 和標準差 σs1\sigma_{\text{s1}}σs1?,則 PSR=gmax?μs1σs1\text{PSR} = \frac{g_{\text{max}} - \mu_{\text{s1}}}{\sigma_{\text{s1}}} PSR=σs1?gmax??μs1??

實驗發現,對于正常跟蹤的情況下,PSR 值大致處于 20.020.020.060.060.060.0 之間。
當 PSR 降到大概 7.07.07.0 左右時,表示目標被遮擋或者跟蹤失敗了。
在應用實現中,PSR 處于 3.03.03.010.010.010.0 時對于更新目標框是沒什么用的。


python代碼

鏈接:https://pan.baidu.com/s/1eAE9fJJBkh50oMaRfCI8AA
提取碼:1234

總結

以上是生活随笔為你收集整理的目标跟踪 MOSSE(Visual Object Tracking using Adaptive Correlation Filters)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 特大黑人巨交吊性xxxxhd | 污网在线观看 | 在线视频区 | 日日噜噜夜夜狠狠久久丁香五月 | 黄网站欧美内射 | 国内精品在线播放 | 色站av| 亚洲色图偷拍 | 亚洲国产果冻传媒av在线观看 | 精品伦精品一区二区三区视频密桃 | 黄色aa网站 | 岛国免费视频 | 午夜两性网| 国产手机在线 | 麻豆影视在线观看 | 拍国产真实乱人偷精品 | 日日操夜夜草 | 国产精品福利一区二区三区 | 国产精品欧美日韩 | 天天躁日日躁狠狠躁欧美 | 草视频在线观看 | 免费一级特黄特色大片 | 国产网站免费在线观看 | 韩国三色电费2024免费吗怎么看 | 日韩黄色成人 | 芒果视频在线观看免费 | 亚洲17p| 久久精品无码一区二区三区毛片 | 狠狠的干狠狠的操 | 国产精品国色综合久久 | 91pao| 91国偷自产一区二区三区观看 | 亚洲黄色在线播放 | 日本三级一区 | 国产精品污www一区二区三区 | 日本黄色xxxx | 天天综合欧美 | 双乳被四个男人吃奶h文 | 91麻豆影视 | 琪琪色av| 葵司有码中文字幕二三区 | 调教丰满的已婚少妇在线观看 | a在线观看| 国产精品一区一区三区 | 欧美精品一区二区三区在线 | 黑人精品xxx一区一二区 | 欧美精品 在线观看 | 日韩免费一二三区 | 国产一区二区三区在线 | 日本一区二区三区免费电影 | 国产精品久久久久久久av福利 | 欧美与黑人午夜性猛交久久久 | 欧美韩一区二区 | 天天天天天天天天干 | 中文字幕18页| 日本污污网站 | 免费草逼网站 | 男女无遮挡做爰猛烈视频 | 日本成人免费在线视频 | 精品日韩av | 国产视频一区二区三区在线观看 | 成人免费高清在线观看 | 依依成人综合网 | 久久久区 | 成人国产精品免费观看动漫 | 天天操bb| 成人夜视频 | 超碰在线小说 | 色噜噜狠狠一区二区三区果冻 | 国模一区二区 | 久久国产视频网 | 在线国产视频 | 姑娘第5集在线观看免费 | 青青青青青草 | 日本少妇xxx| 国产精品一区二区免费视频 | 欧美性做爰猛烈叫床潮 | 欧美久久久久久久久久久久久久 | 男操女视频网站 | 国产精品一区二区6 | 免费成人黄 | 国产视频精品视频 | 三级网站在线 | 91视频啊啊啊 | 性高潮久久久久久久久 | 久草视频国产 | 免费极品av一视觉盛宴 | 欧美激情18p | 国产一区二区三区三州 | av黄色在线播放 | 亚洲视频在线观看网站 | 久久精品国产亚洲av香蕉 | 色婷婷av一区二区三区之e本道 | 麻豆网站在线免费观看 | 91欧美一区| 日韩特级毛片 | 在线97视频 | 久久久久久中文字幕 | 日本污污网站 |