日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

吴恩达“机器学习”——学习笔记二

發布時間:2023/12/13 编程问答 39 豆豆
生活随笔 收集整理的這篇文章主要介紹了 吴恩达“机器学习”——学习笔记二 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

定義一些名詞

欠擬合(underfitting):數據中的某些成分未被捕獲到,比如擬合結果是二次函數,結果才只擬合出了一次函數。

過擬合(overfitting):使用過量的特征集合,使模型過于復雜。

參數學習算法(parametric learning algorithms):用固定的參數進行數據的擬合。比如線性回歸。

非參數學習算法(non-parametric learning algorithms):使用的參數隨著訓練樣本的增多而增多。

局部加權回歸(locally weighted regression)

一種非參數學習算法。

算法思想:尋找到theta,使得

, 最小,其中w(i)稱為權值,tau稱為波長參數。由公式可知,我們在進行局部加權回歸時,對離x較近的訓練樣本賦予了較大的權重,對離x遠的樣本賦予了較小的權重。可以這樣說,我們在對某一個x進行局部加權回歸時,只使用x周圍的數據。

對線性模型的概率解釋

解釋為何要在線性回歸中選擇最小二乘法

,其中varepsilon為誤差項(error),假設該誤差項服從均值為0,方差為sigma的正態分布,且varepsilon是IID,即獨立同分布的。

,將y用varepsilon換掉,則

?

,則

定義似然函數為

求出最大似然估計即可

即最小,此處隱含sigma對我們的運算無影響。

?

所以最小二乘法的目的實際上是假設誤差項滿足高斯分布且獨立同分布的條件下使似然性最大化。

第一個分類算法

可以采用線性回歸解決分類問題,但是有時候結果是好的,有時候結果是糟糕的,一般不這樣做。

討論二元分類,即y只能取0和1。那么我們的h,即預測值可以假定在0與1之間。所以可以選擇logistic(sigmoid)函數來表示我們的h。即

對分類算法模型的概率解釋

假設我們估計的是y=1的時候的概率,那么

我們可以將兩個式子寫在一塊

同樣進行最大似然估計

可以用梯度上升

?

算法進行最大似然估計

?

那么學習過程就變成了

這與在線性回歸中使成本函數J最小的學習過程一樣!!!

感知器算法(perceptron algorithm)

感知器算法不是使用logistics函數,而是使用以下函數

同樣可以得到相同的學習過程。

?

轉載于:https://www.cnblogs.com/xxp17457741/p/8338343.html

總結

以上是生活随笔為你收集整理的吴恩达“机器学习”——学习笔记二的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。