FPGA机器学习之stanford机器学习第三堂1
? ? ? ?請(qǐng)注意:csdn那邊的博客http://blog.csdn.net/my_share。因?yàn)槟沁厡徍说臅r(shí)間太長。搬遷入這里。stanford機(jī)器學(xué)習(xí)前2堂在CSDN的博客里面。
? ? ? ? 剛開始他寫了,這個(gè)公式第二堂講的,是梯度下降法,預(yù)測房價(jià)的那個(gè)。
? ? ? ?第二堂講的線性回歸,我們假設(shè)的房價(jià)的預(yù)測可以用線性方程來擬合。那只是一個(gè)假設(shè)量。其實(shí)可以用多次函數(shù)擬合。按照視頻的說法就是,如果你只有7個(gè)樣本,你就可以用一個(gè)6次函數(shù)完成擬合。這個(gè)結(jié)論可以記住,其實(shí)我csdn里面關(guān)于神經(jīng)網(wǎng)絡(luò)中隱層數(shù)量設(shè)計(jì)的時(shí)候,也涉及到這一點(diǎn)。具體原因我不是很明白,可是這個(gè)現(xiàn)象理解。
? ? ? ?如果完全擬合的話,并不能說明你擬合的很好,也有可能是你的數(shù)據(jù)樣本采集的不正確。
? ? ? 過擬合就是說,僅僅是擬合了某種特定狀況的行為特征。而沒有反應(yīng)出房價(jià)和面積的真正規(guī)律。
?? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??locally weighted linear regression ? ?
? ? ?局部加權(quán)線性回歸。從表面上看局部加權(quán)線性回歸還是線性回歸,所以基本結(jié)構(gòu)還是一樣的。不過區(qū)別在于,
這個(gè)是上一堂線性回歸的要求。
這個(gè)是加權(quán)線性回歸。多了一個(gè)w是權(quán)系數(shù)。而這個(gè)w呢??
這里這個(gè)T呢。叫帶寬系數(shù),是我們自己設(shè)定的。和a學(xué)習(xí)系數(shù)的性質(zhì)差不多。從這個(gè)式子可以看出,其實(shí)是用周邊的點(diǎn),來擬合當(dāng)前的點(diǎn)。離的遠(yuǎn)的貢獻(xiàn)就低一些,也就是關(guān)聯(lián)性不強(qiáng)。這樣擬合的就準(zhǔn)確一些。
? ? ? ?按照老師的說法是,w的函數(shù)還在討論中,僅僅是e指數(shù)比較合適。
? ? ? ?這個(gè)函數(shù)每一次預(yù)測都需要重新局部訓(xùn)練,具體怎么回事??還是看視頻吧。好像是每次都是局部擬合,而且線性。用周邊的來預(yù)測。說明局部加權(quán)回歸這里的i是當(dāng)前附近的幾個(gè)點(diǎn),在訓(xùn)練的結(jié)果。而最終擬合成非線性函數(shù)。
? ? ? ?好像這個(gè)是每一次預(yù)測都需要重新學(xué)習(xí)重新擬合,所以數(shù)據(jù)量大的時(shí)候,代價(jià)很大。
? ? ? epsilon希臘字母,表示的是error,表示那些沒有被表示出來的特征。被遺忘的參考因素等。
? ? ? 這里的誤差模型為什么選用高斯分布,第一個(gè)它只是一個(gè)方便的討論模型,第二個(gè),目前最合適的。
?
?
...............未完待續(xù)。
?
? ? ? 我能力有限,但是我努力的將學(xué)習(xí)成果分享。到這里就是我今天所學(xué)到的新知識(shí),一起學(xué)習(xí)一起努力吧。
? ? ??
轉(zhuǎn)載于:https://www.cnblogs.com/maohuawang/p/3805209.html
總結(jié)
以上是生活随笔為你收集整理的FPGA机器学习之stanford机器学习第三堂1的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 【问题记录】RIDE-1.7.3.1控制
- 下一篇: 读书笔记011:《伤寒论》- 手厥阴心包