日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

支持向量机SVM(1)——间隔最大化

發布時間:2023/12/14 编程问答 27 豆豆
生活随笔 收集整理的這篇文章主要介紹了 支持向量机SVM(1)——间隔最大化 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

支持向量機SVM——間隔最大化

    • 1.超平面
    • 2.函數間隔和幾何間隔
    • 3.間隔最大化

本文主要參考《機器學習》、《統計學習方法》。
支持向量機主要分類三類:線性可分支持向量機(數據線性可分時),線性支持向量機(數據近似線性可分),非線性支持向量機(數據線性不可分)。這里先考慮最簡單的情況,即當數據線性可分時。

1.超平面

對于2分類的邏輯回歸而言,假設特征數為2,那么我們訓練模型的過程通過梯度下降不斷更新參數迫近全局最優解,擬合出一條直線作為決策邊界,使得以這個決策邊界劃分出來的分類結果誤差最低。

當特征數量超過2,這個時候我們用來分割不同類別的“線”就成為了一個面,簡稱超平面(hyperplane),超即是多維的意思(二維就是一條線,三維就是一個面,多維就是超平面)。劃分超平面可用如下線性方程表示:
wTx+b=0w^{T}x+b=0wTx+b=0
其中w=(w1,w2,...,wd)Tw=(w_1,w_2,...,w_d)^Tw=(w1?,w2?,...,wd?)T是法向量,bbb是位移。(向量一般用列向量表示)

如果我們要用一條直線來將下面這張圖中的兩種類別(“+”和“-”)分開,可看到可分離的直線是有多條的,如下圖所示:

直觀上我們應該選紅色的這條線,感覺它是“最能”分開這兩種類的。因為如果選擇黑色的線,那么可能存在一些點剛好越過黑色的線,導致被錯誤分類,但是紅線的容錯率會更好,也就不容易出錯。

例如下面這種情況,如果我選擇綠色的線,如果新來一個需要預測的樣本(藍色的點)本來屬于“+”,但是卻會被分到“-”這一類,但是紅線就不會,即紅線所產生的分類結果是最魯棒的,對未見示例的泛化能力最強。

紅色的這條決策邊界就是通過間隔最大化求得的,并且是唯一。在了解間隔最大化之前先了解一下函數間隔和幾何間隔的概念。

2.函數間隔和幾何間隔

一般來說,一個點距離超平面的遠近可以表示分類預測的確信程度。例如圖中A、B、C三個點,都在超平面的正類一側,但是點A距離超平面較遠,就比較確信預測是正確的,而C距離超平面較近,所以預測C為正類就不那么確信。

(1)函數間隔:對于給定訓練集和超平面(w,b),定義超平面(w,b)關于樣本點(xi,yi)(x_i,y_i)(xi?,yi?)的函數間隔為:
ri^=yi(wTxi+b)\hat{r_i}=y_i(w^Tx_i+b)ri?^?=yi?(wTxi?+b)
定義超平面(w,b)(w,b)(w,b)關于訓練集的函數間隔為超平面關于訓練集中所有樣本點的函數間隔的最小值:
r^=min(i=1,..,N)ri^\hat{r}=min_{(i=1,..,N)}\hat{r_i}r^=min(i=1,..,N)?ri?^?
可以看到當w,bw,bw,b成比例變化時,超平面沒有改變但是函數間隔變了,因此可以對w,bw,bw,b做相應的約束,就得到了幾何間隔。

(2)幾何間隔:對于給定訓練集和超平面(w,b),定義超平面(w,b)關于樣本點(xi,yi)(x_i,y_i)(xi?,yi?)的集合間隔為:
ri=yi(wTxi+b)∣∣w∣∣{r_i}=\frac{y_i(w^Tx_i+b)}{||w||}ri?=wyi?(wTxi?+b)?
定義超平面(w,b)(w,b)(w,b)關于訓練集的函數間隔為超平面關于訓練集中所有樣本點的幾何間隔的最小值:
r=min(i=1,..,N)ri{r}=min_{(i=1,..,N)}r_ir=min(i=1,..,N)?ri?

這里的幾何間隔就是點到平面的距離公式,因為y為1或-1,且當前數據集線性可分,所以和∣wTxi+b∣∣∣w∣∣\frac{|w^{T}x_i+b|}{||w||}wwTxi?+b?是等價的。

3.間隔最大化

因為當w,bw,bw,b成比例變化時,函數間隔也會成比例變化,而幾何間隔是不變的,所以要考慮幾何間隔最大化,即我們要求解間隔最大化的超平面的問題就變成了求解如下帶約束的優化問題:
{maxw,brs.t.yi(wTxi+b)∣∣w∣∣≥r,i=1,2,..,N\begin{cases}max_{w,b}\quad r\\s.t. \quad\frac{y_i(w^Tx_i+b)}{||w||}\geq r, i=1,2,..,N\end{cases}{maxw,b?rs.t.wyi?(wTxi?+b)?r,i=1,2,..,N?

上面的約束條件表示對于訓練集中所有樣本關于超平面的幾何距離都至少是r。又因為函數間隔和幾何間隔之間存在這樣的關系:r=r^∣∣w∣∣r=\frac{\hat{r}}{||w||}r=wr^?,所以上面的優化問題可以寫成如下形式:
{maxw,br^∣∣w∣∣s.t.yi(wTxi+b)≥r^,i=1,2,..,N\begin{cases}max_{w,b}\quad \frac{\hat{r}}{||w||}\\s.t. \quad{y_i(w^Tx_i+b)}\geq \hat{r}, i=1,2,..,N\end{cases}{maxw,b?wr^?s.t.yi?(wTxi?+b)r^,i=1,2,..,N?

又因為當w,bw,bw,b成比例變為λw,λb\lambda w,\lambda bλw,λb,函數間隔變為λr^\lambda \hat{r}λr^(λ>0\lambda>0λ>0),雖然改變了函數間隔但是不等式約束依然滿足,并且超平面也沒有變,所以r^\hat{r}r^的取值并不影響目標函數的優化,因此為了方便計算可以令r^=1\hat{r}=1r^=1,并且由于最大化r^∣∣w∣∣\frac{\hat{r}}{||w||}wr^?和最小化∣∣w∣∣22\frac{||w||^2}{2}2w2?是等價的,所以優化問題可以寫成如下形式:
{minw,b∣∣w∣∣22s.t.yi(wTxi+b)≥1,i=1,2,..,N\begin{cases}min_{w,b}\quad \frac{||w||^2}{2}\\s.t. \quad{y_i(w^Tx_i+b)}\geq 1, i=1,2,..,N\end{cases}{minw,b?2w2?s.t.yi?(wTxi?+b)1,i=1,2,..,N?
并且使得上面等式成立的點也被稱為支持向量(support vector)

下一篇 [支持向量機SVM(2)——拉格朗日乘數法]

總結

以上是生活随笔為你收集整理的支持向量机SVM(1)——间隔最大化的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。