终极算法——第九章:解开迷惑
本文為閱讀總結個人認為書里概念性的、對本人有幫助的內容,僅供參考。
機器學習既是科學,也是技術,兩者的特點提示我們如何將其統一起來。
在科學方面,理論的統一往往從看似簡單的觀察開始。
世界上許多最重要的技術都是創造統一物的結果,該統一物是單一機制,能完成之前需要很多機制完成的事情。
終極算法是機器學習的統一物:它讓任意應用利用任意學習算法,方法是將學習算法概括成通用形式——所有應用都需要知道該形式。
我們邁向中計算法的第一步會簡單得令人意外。事實證明,要將許多不同的學習算法結合成一個并不難,利用的就是元學習。
元學習在機器學習算法的箭袋中是最有力量的一支,它還是接下來要進入深層統一的墊腳石。
元學習算法本身可以是任意學習算法,從決策樹到簡單的權值投票。
一種類型的元學習被稱為“堆疊”,還有一個更簡單的元學習算法是“裝袋”算法。
“裝袋”算法通過重新取樣的方法來產生訓練集的隨機變量,將同樣的學習算法應用到每個訓練集中,然后通過投票將結果結合起來。做這件事的原因是它可以減少變量:組合模型和任何單一模型相比,對于變幻莫測的數據的敏感度要低很多,這樣提高準確度就變得很容易了。
最聰明的元學習算法之一就是推進。推進算法不是通過結合不同的學習算法,而是將相同的分類器不斷應用到數據中,利用每個新的模型來糾正前面模型的錯誤。
元學習非常成功,但它卻不是深入組合模型的方法。
如果機器學習是一塊大陸,被分成5個區域,那么終極算法就是首都城市,矗立在5個區域會合的特殊地帶。
如上圖所示,外圍的圓是“優化城”,中間是“評價城堡”,里層是“代表法之塔”。
代表法是一種形式語言,利用這種語言,學習算法會表達它的模型。
結合神經網絡和遺傳算法的方法就是利用遺傳搜索來找到模型的結構,然后讓梯度下降來填滿它的參數。這就是自然所做的事:進化創造大腦結構,而個人經歷則對這些結構進行調整。
你似乎已經將那5個優化程序總結為一個簡單的方法:遺傳搜索用于結構,梯度下降用于參數。
終極算法
總結
以上是生活随笔為你收集整理的终极算法——第九章:解开迷惑的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: PYTHON网络爬虫大数据朱炯明
- 下一篇: 微信 网页开发 获取地理位置 高德地图显