第5章 线性回归算法
生活随笔
收集整理的這篇文章主要介紹了
第5章 线性回归算法
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
1.解決回歸問題
2.思想簡單,實現(xiàn)容易
3.許多強大的非線性模型的基礎
4.結(jié)果具有很好的可解釋性
5.蘊含機器學習中的很多重要思想
所謂的建模的過程,其實就是找到一個模型最大程度的擬合我們的數(shù)據(jù)。在線性回歸算法中,這個模型就是一個直線方程,所謂的最大擬合我們的數(shù)據(jù),其實本質(zhì)是找到一個函數(shù) ,在這里我們稱這個函數(shù)叫做損失函數(shù),就是loss?function,也就是我們的這個模型沒有擬合樣本的這一部分,就是損失的這一部分;有的算法中度量的是擬合的程度,在這種情況下稱這個函數(shù)為效用函數(shù)(utility?function)。統(tǒng)稱它們?yōu)槟繕撕瘮?shù)。
注意:分類問題
?
?
?
?
?
?
?損失函數(shù):度量出沒有擬合出樣本的部分
效用函數(shù):度量是擬合的程度
?參數(shù)學習的算法都是這樣的一個套路。參數(shù)學習算法就是要創(chuàng)建一個模型,而機器學習的任務就是要學習這些模型的參數(shù)!《最優(yōu)化原理》
?導數(shù)等于0的地方就是函數(shù)極值的地方。
?
?
?
?
?
多元線性回歸
?
?
?
?
?
?
?
?
總結(jié)
以上是生活随笔為你收集整理的第5章 线性回归算法的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 第4章 最基础的分类算法-k近邻算法
- 下一篇: 第6章 梯度下降法