8. An Introduction to MCMC for Machine Learning (2)
生活随笔
收集整理的這篇文章主要介紹了
8. An Introduction to MCMC for Machine Learning (2)
小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
MCMC的應(yīng)用:
(1)貝葉斯推理與學(xué)習(xí);%例:動(dòng)力學(xué)系統(tǒng)的參數(shù)估計(jì)(見(jiàn)筆記)
(2)統(tǒng)計(jì)力學(xué);
(3)最優(yōu)化:在可行域很大(large number of possible configurations)時(shí)有效找到最優(yōu)解——RBM 優(yōu)化目標(biāo)函數(shù)中的問(wèn)題;
(4)懲罰可能性模型的選擇:在眾多模型中快速找到更好的模型——MDL, BIC, AIC 模型選擇問(wèn)題;
2.1. 蒙特卡洛原理
思想起源:假設(shè)玩一局牌的贏的概率只取決于你抽到牌的組合情況,如果用窮舉的方法則有 52! 種情況,計(jì)算復(fù)雜度太大。而現(xiàn)實(shí)中的做法是先玩幾局試試,統(tǒng)計(jì)贏的概率,如果你不太確信這個(gè)概率,你可以盡可能多玩幾局,當(dāng)你玩的次數(shù)很大的時(shí)候,得到的概率就非常接近真實(shí)概率了。
上述方法可以估算隨機(jī)事件的概率,接下來(lái)內(nèi)容的重點(diǎn)是用Monte Carlo抽樣計(jì)算隨機(jī)變量的期望值:
X表示隨機(jī)變量,服從概率分布p(x),那么要計(jì)算f(x)的期望,只需要不停從p(x)中抽樣。
總結(jié)
以上是生活随笔為你收集整理的8. An Introduction to MCMC for Machine Learning (2)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 04 凸优化问题
- 下一篇: 8. An Introduction t