干货|机器学习零基础?不要怕,吴恩达机器学习课程笔记2-多元线性回归
吳恩達(dá)Coursera機器學(xué)習(xí)課系列筆記
課程筆記|吳恩達(dá)Coursera機器學(xué)習(xí) Week1 筆記-機器學(xué)習(xí)基礎(chǔ)
1Linear Regression with Multiple Variables緊接上一篇的例子 – 房價預(yù)測。現(xiàn)在我們有更多的特征來預(yù)測房價了,“房間的數(shù)量”、“樓層”、“房齡”……
說明一下接下來要用到的符號:
訓(xùn)練集(部分)如下圖所示:
然后再用上一篇中說的gradient descent方法更新θ即可,過程如下:
2?Gradient descent in practice
2.1 Feature Scaling
讓特征們的取值處于同一個范圍里面,可以加快梯度下降法的收斂速度。原因在下圖中形象說明了。
2.2 Choose Learning Rate?α
在不斷更新θ即迭代次數(shù)不斷增加之后,J(θ)的值應(yīng)該不斷下降,直至不怎么改變了,模型訓(xùn)練完畢,如下圖中最后平坦的部分:
3?Features and Polynomial Regression
除了訓(xùn)練集中已經(jīng)給出的特征,還可以根據(jù)這些特征來生成新的特征。比如說最簡單的,已有特征“長”和“寬”,可以使用生成的特征“面積”來進(jìn)行模型的學(xué)習(xí)。
另外h(x)也可以使用polynomial regression來代替linear regression,則:
4?Matrix Representation在實際計算過程中,用矩陣來計算會提升計算速度。下面就來看看怎么轉(zhuǎn)換成矩陣形式。
如下例子:
5?Normal Equation
在Linear Regression中,Normal equation可以用來取代Gradient descent來計算θ。
下面是Gradient descent和Normal Equation的比較:
總結(jié)
以上是生活随笔為你收集整理的干货|机器学习零基础?不要怕,吴恩达机器学习课程笔记2-多元线性回归的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 按照演算,整个宇宙将会陷入无边的黑暗
- 下一篇: 干货|机器学习零基础?不要怕,吴恩达课程