日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) >

【技术短文】基于深度负相关学习的人群计数方法

發(fā)布時(shí)間:2025/4/5 24 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【技术短文】基于深度负相关学习的人群计数方法 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.


SIGAI 特邀作者:cnns

原創(chuàng)聲明:本文為 SIGAI 原創(chuàng)文章,僅供個(gè)人學(xué)習(xí)使用,未經(jīng)允許,不得轉(zhuǎn)載,不能用于商業(yè)目的。


1.???? 人群計(jì)數(shù)

監(jiān)控視頻中的人群自動(dòng)計(jì)數(shù)有著重要的社會(huì)意義和市場(chǎng)應(yīng)用前景。充分利用興趣區(qū)域的人數(shù)統(tǒng)計(jì)信息可以為一些人群密集的商場(chǎng)、車站、廣場(chǎng)等公共場(chǎng)合的安全預(yù)警提供有效的指導(dǎo)。還可以帶來經(jīng)濟(jì)效益,例如,提高服務(wù)質(zhì)量、分析顧客行為、廣告投放和優(yōu)化資源配置等。因此,該問題已成為計(jì)算機(jī)視覺和智能視頻監(jiān)控領(lǐng)域的重要研究?jī)?nèi)容。

近年來,隨著計(jì)算機(jī)視覺技術(shù)的持續(xù)發(fā)展,大量的人群計(jì)數(shù)方法被提出。基于人群特征回歸人群人數(shù)的方法是當(dāng)前的主流方法。此回歸方法將人群視為一個(gè)整體,利用圖像特征和人群人數(shù)之間的回歸關(guān)系實(shí)現(xiàn)行人計(jì)數(shù)。這類方法能夠有效地解決人群遮擋問題,具有大規(guī)模人群計(jì)數(shù)的能力。直接的回歸一個(gè)圖像中總的人數(shù)在實(shí)際中準(zhǔn)確率不夠理想,因?yàn)榭側(cè)藬?shù)所包含和表達(dá)的人群信息極其有限。近年來大多數(shù)基于回歸的方法首先根據(jù)標(biāo)注的人頭位置和核密度估計(jì)生成每個(gè)人群圖像所對(duì)應(yīng)的人群密度圖(如圖1所示),然后基于人群特征回歸人群密度圖,最后計(jì)算人群密度圖的數(shù)值總和作為最終的預(yù)測(cè)人數(shù)。人群密度圖保留了人群的分布信息,因此包含了更多和更豐富的人群信息,這對(duì)于獲得更準(zhǔn)確的預(yù)測(cè)結(jié)果是非常關(guān)鍵的。

1 人群密度圖

?

2. 深度人群計(jì)數(shù)模型

深度學(xué)習(xí)通過多層結(jié)構(gòu)將底層特征逐步轉(zhuǎn)換為更加抽象的高層特征,具有優(yōu)異的特征學(xué)習(xí)能力,學(xué)到的特征對(duì)數(shù)據(jù)有更本質(zhì)的刻畫。深度卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural network, CNN)是最成功的深度模型之一,在計(jì)算機(jī)視覺領(lǐng)域有著廣泛的應(yīng)用。CNN 憑借特有的卷積–池化 (Convolution-pooling) 結(jié)構(gòu)獲的特征對(duì)平移、縮放和旋轉(zhuǎn)具有不變性,相比于底

層特征,判別能力和魯棒性更強(qiáng)。近年來很多深度人群計(jì)數(shù)模型被提出(如圖2所示),這些方法主要關(guān)注如何獲取更好的人群特征用于描述更復(fù)雜人群,例如多尺度、嚴(yán)重遮擋和不均勻分布的人群。文獻(xiàn)[1]首次提出將深度卷積神經(jīng)網(wǎng)絡(luò)用于人群計(jì)數(shù),該方法基于深度卷積特征同時(shí)回歸總?cè)藬?shù)和人群密度圖。這種端到端的多任務(wù)學(xué)習(xí)方法法相比于傳統(tǒng)方法具有準(zhǔn)確率高和魯棒性好的優(yōu)點(diǎn),但是對(duì)于多尺度的行人和嚴(yán)重遮擋問題效果并不理想。針對(duì)這些復(fù)雜的問題,文獻(xiàn)[2]提出一種多列的深度卷積神經(jīng)網(wǎng)絡(luò)模型(Multi-column Convolutional neural network, MCNN)。在MCNN中,不同列實(shí)際上是具有不同卷積核的子網(wǎng)絡(luò),理論上不同子網(wǎng)絡(luò)可以處理不同尺度的行人。通過大量實(shí)驗(yàn)驗(yàn)證,MCNN在處理多尺度的行人和嚴(yán)重遮擋問題時(shí)具有更好的效果。文獻(xiàn)[3]進(jìn)一步提出一種轉(zhuǎn)換網(wǎng)絡(luò)(Switching Convolutional Neural Network, Switch-CNN),該網(wǎng)絡(luò)使用了幾個(gè)卷積核大小和深度不同的CNN。Switch-CNN首先將圖像分成多個(gè)圖像塊,然后根據(jù)圖像塊的內(nèi)容信息來選擇合適的CNN網(wǎng)絡(luò)進(jìn)行人群密度估計(jì)。Switch-CNN。該方法進(jìn)一步提升了人群計(jì)數(shù)的準(zhǔn)確率和對(duì)多尺度、遮擋的魯棒性。然而由于顯存和人群數(shù)據(jù)集規(guī)模的限制,人群網(wǎng)絡(luò)的寬度和深度的增加是有限度的。當(dāng)人群數(shù)據(jù)集比較小時(shí),很深或很寬的人群模型的訓(xùn)練變得極其困難,很容易過擬合。

?

3. 集成學(xué)習(xí)

模型的回歸誤差可以被分解成偏置(Bias)和方差(Variance)。當(dāng)模型出現(xiàn)過擬合問題時(shí)一般伴隨著低偏置和高方差現(xiàn)象。集成學(xué)習(xí)一般通過顯著減小方差來提高單一模型的泛化能力?;谶@個(gè)角度,我們提出利用深度集成學(xué)習(xí)來提高人群計(jì)數(shù)的性能。

? 2 當(dāng)前深度人群計(jì)數(shù)模型



本文旨在解決以下兩個(gè)技術(shù)難點(diǎn):1)如何訓(xùn)練一組有足夠多樣性(Diversity)的深度回歸器。文獻(xiàn)[4]證明, 好的集成學(xué)習(xí)系統(tǒng)往往有著很強(qiáng)的多樣性。2)如何有效地訓(xùn)練深度集成學(xué)習(xí)系統(tǒng)。傳統(tǒng)的集成學(xué)習(xí)一般會(huì)獨(dú)立的訓(xùn)練多個(gè)分類或回歸器。除了低效率的缺陷以外,由于不同的回歸器彼此之間沒有限制,產(chǎn)生的回歸器之間會(huì)有很強(qiáng)的相關(guān)性,進(jìn)而降低了模型整體的多樣性,從而導(dǎo)致模型抑制過擬合的能力受限。

?

4. 深度負(fù)相關(guān)學(xué)習(xí)

我們首次提出將負(fù)相關(guān)學(xué)習(xí)的思想應(yīng)用在深度學(xué)習(xí)模型中。由于深度學(xué)習(xí)模型的參數(shù)眾多,

?

3 傳統(tǒng)集成學(xué)習(xí)和負(fù)相關(guān)學(xué)習(xí)

?

同時(shí)訓(xùn)練多個(gè)深度學(xué)習(xí)模型往往需要很多工程技巧并且效率低下。因此,我們要解決的關(guān)鍵問題是如何在不增加模型參數(shù)規(guī)模的情況下得到深度負(fù)相關(guān)學(xué)習(xí)模型。我們想要達(dá)到兩個(gè)目的:1)訓(xùn)練單個(gè)網(wǎng)絡(luò)得到多個(gè)有足夠多樣性的輸出。2)不增加網(wǎng)絡(luò)的參數(shù)規(guī)模。我們提出的方案是對(duì)深度卷積模型最后一層的特征圖進(jìn)行分組,然后不同的輸出連接不同的分組,這相當(dāng)于同時(shí)訓(xùn)練了多個(gè)弱回歸器,最終得到一個(gè)強(qiáng)的回歸器。我們通過使用已有的組卷積(Group Convolution)實(shí)現(xiàn)提出的方案。提出的網(wǎng)絡(luò)模型如圖4所示。在我們?cè)O(shè)計(jì)的系統(tǒng)中,我們利用文獻(xiàn)[5]的方式同時(shí)訓(xùn)練多個(gè)回歸器并加入約束來減弱回歸器之間的相關(guān)性。我們的方法有效的增強(qiáng)了模型整體的多樣性,從而提高了模型抑制過擬合的能力。

?

?

5. 實(shí)驗(yàn)及結(jié)果


4 深度負(fù)相關(guān)學(xué)習(xí)模型

實(shí)驗(yàn)使用了三個(gè)標(biāo)準(zhǔn)人群計(jì)數(shù)數(shù)據(jù)集:UCF_CC_50、Shanghaitech和WorldExpo’10。實(shí)驗(yàn)結(jié)果表明提出的方法相比于已有的方法具有更高的準(zhǔn)確率。

? 圖5 定性實(shí)驗(yàn)結(jié)果

?

6 定量實(shí)驗(yàn)結(jié)果



6. 參考文獻(xiàn)

[1] Zhang C, Li H, Wang X, et al. Cross-scene crowd counting via deep convolutional neural networks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2015: 833-841.

[2] Zhang Y, Zhou D, Chen S, et al. Single-image crowd counting via multi-column convolutional neural network[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2016: 589-597.

[3] Sam D B, Surya S, Babu R V. Switching convolutional neural network for crowd counting[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2017, 1(3): 6.

[4] Brown, Gavin, Jeremy L. Wyatt, and Peter Tiňo. "Managing diversity in regression ensembles."?Journal of machine learning research?6.Sep (2005): 1621-1650.

[5] Liu Y, Yao X. Ensemble learning via negative correlation[J]. Neural networks, 1999, 12(10): 1399-1404.

[6] Shi Z, Zhang L, Liu Y, et al. Crowd Counting With Deep Negative Correlation Learning[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018: 5382-5390.

?

推薦閱讀

[1]?機(jī)器學(xué)習(xí)-波瀾壯闊40?SIGAI 2018.4.13.

[2]?學(xué)好機(jī)器學(xué)習(xí)需要哪些數(shù)學(xué)知識(shí)?SIGAI 2018.4.17.

[3]?人臉識(shí)別算法演化史?SIGAI 2018.4.20.

[4]?基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法綜述?SIGAI 2018.4.24.

[5]?卷積神經(jīng)網(wǎng)絡(luò)為什么能夠稱霸計(jì)算機(jī)視覺領(lǐng)域?? SIGAI 2018.4.26.

[6]?用一張圖理解SVM的脈絡(luò)??SIGAI 2018.4.28.

[7]?人臉檢測(cè)算法綜述??SIGAI 2018.5.3.

[8]?理解神經(jīng)網(wǎng)絡(luò)的激活函數(shù)?SIGAI 2018.5.5.

[9]?深度卷積神經(jīng)網(wǎng)絡(luò)演化歷史及結(jié)構(gòu)改進(jìn)脈絡(luò)-40頁(yè)長(zhǎng)文全面解讀?SIGAI 2018.5.8.

[10]?理解梯度下降法?SIGAI 2018.5.11.

[11]?循環(huán)神經(jīng)網(wǎng)絡(luò)綜述—語(yǔ)音識(shí)別與自然語(yǔ)言處理的利器?SIGAI 2018.5.15

[12]?理解凸優(yōu)化??SIGAI 2018.5.18

[13] 【實(shí)驗(yàn)】理解SVM的核函數(shù)和參數(shù)?SIGAI 2018.5.22

[14] 【SIGAI綜述】行人檢測(cè)算法?SIGAI 2018.5.25

[15]?機(jī)器學(xué)習(xí)在自動(dòng)駕駛中的應(yīng)用—以百度阿波羅平臺(tái)為例(上) SIGAI 2018.5.29

[16]?理解牛頓法?SIGAI 2018.5.31

[17] 【群話題精華】5月集錦—機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中一些值得思考的問題?SIGAI 2018.6.1

[18]?大話Adaboost算法?SIGAI 2018.6.2

[19]?FlowNet到FlowNet2.0:基于卷積神經(jīng)網(wǎng)絡(luò)的光流預(yù)測(cè)算法?SIGAI 2018.6.4

[20]?理解主成分分析(PCA)?SIGAI 2018.6.6

[21]?人體骨骼關(guān)鍵點(diǎn)檢測(cè)綜述??SIGAI 2018.6.8

[22]?理解決策樹?SIGAI 2018.6.11

[23]?用一句話總結(jié)常用的機(jī)器學(xué)習(xí)算法?SIGAI 2018.6.13

[24]?目標(biāo)檢測(cè)算法之YOLO?SIGAI 2018.6.15

[25]?理解過擬合?SIGAI 2018.6.18

[26]?理解計(jì)算:從√2到AlphaGo ——第1 從√2談起?SIGAI 2018.6.20

[27]?場(chǎng)景文本檢測(cè)——CTPN算法介紹??SIGAI 2018.6.22

[28]?卷積神經(jīng)網(wǎng)絡(luò)的壓縮和加速?SIGAI 2018.6.25

[29]?k近鄰算法?SIGAI 2018.6.27

[30]?自然場(chǎng)景文本檢測(cè)識(shí)別技術(shù)綜述?SIGAI 2018.6.27

[31]?理解計(jì)算:從√2到AlphaGo ——第2季?神經(jīng)計(jì)算的歷史背景?SIGAI 2018.7.4

[32]?機(jī)器學(xué)習(xí)算法地圖?SIGAI2018.7.6

[33]? 反向傳播算法推導(dǎo)-全連接神經(jīng)網(wǎng)絡(luò) SIGAI2018.7.9

[34]? 生成式對(duì)抗網(wǎng)絡(luò)模型綜述 SIGAI0709.

[35]? 怎樣成為一名優(yōu)秀的算法工程師SIGAI0711.

[36]. 理解計(jì)算:從根號(hào)2到AlphaGo——第三季 神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)模型 SIGAI0716

[37] 【技術(shù)短文】人臉檢測(cè)算法之S3FD

?

原創(chuàng)聲明:本文為 SIGAI 原創(chuàng)文章,僅供個(gè)人學(xué)習(xí)使用,未經(jīng)允許,不得轉(zhuǎn)載,不能用于商業(yè)目的。

?

?

?

?

總結(jié)

以上是生活随笔為你收集整理的【技术短文】基于深度负相关学习的人群计数方法的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。