日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

AdaBoost 和 Real Adaboost 总结

發(fā)布時間:2024/9/21 编程问答 34 豆豆
生活随笔 收集整理的這篇文章主要介紹了 AdaBoost 和 Real Adaboost 总结 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

AdaBoost 和 Real Adaboost 總結(jié)

AdaBoostReal AdaBoost

AdaBoost


AdaBoost, Adaptive Boosting(自適應(yīng)增強), 是一種集成學(xué)習(xí)算法(ensemble learning),由Yoav Freund 和 Robert Schapire 于1995年提出。其思想是通過多個簡單的弱分類器集成一個具有較高準確率的強分類器。


經(jīng)典AdaBoost算法過程

輸入:訓(xùn)練數(shù)據(jù),其中分別對應(yīng)著樣本特征和樣本標(biāo)簽
輸出:最終的強分類器
初始化:樣本權(quán)重分布
循環(huán):t=1,...,T
....-針對權(quán)重樣本 訓(xùn)練弱分類器
....-計算弱分類器的錯誤率,是示性函數(shù)
....-計算弱分類器的權(quán)重
....-使用當(dāng)前的弱分類器更新樣本的分布 ,其中是歸一化常數(shù)
最終的前分類器為:


AdaBoost過程示意圖


AdaBoost.png


更新迭代原理

  • 從直觀上理解,首先,當(dāng)錯誤率$\epsilon$越大時,分類器的權(quán)重$\alpha$越小,這符合一般解釋及分類器性能越高置信度也就越大,在最終的表決中所占比重也就越大。其次,在新樣本分布的更新過程中,分類正確的樣本在下次分類器學(xué)習(xí)中作用越小,而分錯的樣本在下次分類器學(xué)習(xí)中的作用越大,這樣可以是新的分類器設(shè)計更集中在之前錯分的樣本分類上,使整體的分類性能提高。

  • 從理論上推導(dǎo):
    AdaBoost采用的是指數(shù)誤差函數(shù),其中D是樣本的分布,表示樣本的標(biāo)簽,表示在分布D上計算期望。

i. 首先是權(quán)重的更新,希望分類器產(chǎn)生的總體指數(shù)誤差最小,則

其中表示某個分布上的概率分布函數(shù)。于是得到

即分類器權(quán)重的更新公式

ii. 接下來將推導(dǎo)分布的更新:
已獲得前個分類器,我們希望獲得第t個分類器能糾 正之前錯誤分類,使指數(shù)誤差函數(shù)最小。

泰勒展開:

這是因為

表示一個新的分布,則上式可以寫作:

類似的

于是得到分布的更新公式。


AdaBoost的誤差上界

在更新分布時有歸一化常數(shù)

指數(shù)誤差函數(shù):


AdaBoost分析

雖然在AdaBoost中對弱分類器沒有限制,可以是基于多維特征的決策樹,SVM等,但通常每個弱分類器都是基于所有特征中某一維構(gòu)建的,并且輸出結(jié)果只有+1,-1兩種(二分類問題),所以在訓(xùn)練時每一輪迭代相當(dāng)于挑選最好的特征。


Real AdaBoost


Real AdaBoost 過程:

給定訓(xùn)練集:
訓(xùn)練集樣本的初始分布:
循環(huán)t=1,2,...,T: (T是弱分類器的個數(shù))
.... - 將每一維特征的取值空間劃分為若干個不相交的
.... - 計算在每個子空間上上正負樣本的權(quán)重

.... - 計算每一個弱分類器的輸出,,其中是一個很小的正常量用于平滑。
.... - 計算歸一化因子
.... - 選擇Z最小的的弱分類器作為該輪迭代選出的弱分類器
.... - 更新樣本分布
最終的強分類器為:, b是閾值。


Real AdaBoost 的理解
相對于AdaBoost而言,Real AdaBoost中弱分類器不再僅輸出{+1,-1},而是輸出[-1,1]間的實數(shù),所以稱為Real AdaBoost, 我們可以認為輸出的值其實就是AdaBoost里的權(quán)重加權(quán)后的結(jié)果,即,所以Real AdaBoost也符合AdaBoost的框架

Real AdaBoost 的每個弱分類器設(shè)計是一種決策樹的簡單形式,而每個葉子節(jié)點判斷依據(jù)是將該區(qū)間樣本分類為樣本數(shù)最多的那一類。簡單的閾值化函數(shù)適用于線性可分情況,而對于線性不可分情形,采用這種分區(qū)間,即決策樹的形式能取得較好的性能。

每次迭代都希望尋找最小分類誤差的分類器,而Z值越小表示在對應(yīng)樣本分布下該分類器對應(yīng)的正負樣本個數(shù)差別越大,分類結(jié)果的置信度越高

下面我們從理論上分析迭代過程:
指數(shù)誤差函數(shù)為:

每次迭代的目標(biāo)是尋找一個誤差最小的分類器,即最小,那么由AdaBoost框架得到

其中是在該維度上分成N個區(qū)間后,落在第j個區(qū)間分類器輸出值,為了使Z最小,可以得到

此時Z取得最小值

為了使輸出函數(shù)更加平滑,也為了抑制差距太大或者一方為0的情形,引入平滑因子,一般情況下令


Adaboost和Real Adaboost中弱分類器的區(qū)別示意圖:


realandnon.JPG


matlab實現(xiàn)Real AdaBoost


References:

  • 《機器學(xué)習(xí)》,周志華著

  • Real Adaboost總結(jié)

  • AdaBoost 算法的原理與推導(dǎo)

  • 李志軒,復(fù)雜場景中監(jiān)控視頻事件檢測算法[D],北京郵電大學(xué),2014

轉(zhuǎn)載于:https://www.cnblogs.com/YiXiaoZhou/p/5875077.html

總結(jié)

以上是生活随笔為你收集整理的AdaBoost 和 Real Adaboost 总结的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。