线性分类
1,基本概念
在機(jī)器學(xué)習(xí)領(lǐng)域,分類的目標(biāo)是指將具有相似特征的對(duì)象聚集。而一個(gè)線性分類器則透過特征的線性組合來做出分類決定,以達(dá)到此種目的。對(duì)象的特征通常被描述為特征值,而在向量中則描述為特征向量。
2,線性分類表達(dá)式
線性分類器用作圖像分類主要有兩部分組成:一個(gè)是假設(shè)函數(shù), 它是原始圖像數(shù)據(jù)到類別的映射。另一個(gè)是損失函數(shù),該方法可轉(zhuǎn)化為一個(gè)最優(yōu)化問題,在最優(yōu)化過程中,將通過更新假設(shè)函數(shù)的參數(shù)值來最小化損失函數(shù)值。
表達(dá)為矩陣形式如下:
x為數(shù)據(jù)(將三維矩陣轉(zhuǎn)化為一維矩陣(列向量)),W為一系列權(quán)重參數(shù)(反映了對(duì)應(yīng)數(shù)據(jù)對(duì)結(jié)果的影響),f(x,W)為每個(gè)類別的得分值(得分值高的類別為當(dāng)前輸入的類別),b為偏置項(xiàng)。
利用權(quán)重參數(shù)和數(shù)據(jù)的線性組合,完成線性分類:
3,損失函數(shù)
一個(gè)例子(利用簡單的標(biāo)準(zhǔn)評(píng)價(jià)當(dāng)前的損失):
sj代表錯(cuò)誤的得分值,syi代表正確的得分值,1為錯(cuò)誤容忍度,損失函數(shù)值較大表示分類效果不好。
損失函數(shù)的表達(dá)式(模型的評(píng)價(jià)指標(biāo),N為樣本個(gè)數(shù)):
對(duì)于相同的數(shù)據(jù),不同的模型,得到的得分值可能相同,如對(duì)于上式如果有以下兩個(gè)模型:
可以計(jì)算得到f(x,w)=1。而對(duì)于1號(hào)模型只關(guān)注局部值易產(chǎn)生過擬合現(xiàn)象。為了解決上述問題,引入正則化懲罰項(xiàng)。
4,正則化懲罰項(xiàng)
在原有的損失函數(shù)的基礎(chǔ)上加上正則化懲罰項(xiàng):
對(duì)于L2正則化懲罰項(xiàng):
通過懲罰項(xiàng)的計(jì)算可知,對(duì)于2號(hào)模型的懲罰較小,即認(rèn)為2號(hào)模型較好
總結(jié)
- 上一篇: 降维处理:PCA和LDA
- 下一篇: OpenCV+python:直方图的应用