统计学习/机器学习常用小知识
文章目錄
- 統(tǒng)計學(xué)習(xí)的特點(diǎn)
- 統(tǒng)計學(xué)習(xí)的方法
- 機(jī)器學(xué)習(xí)的步驟
- 統(tǒng)計學(xué)習(xí)的目的
- 統(tǒng)計學(xué)習(xí)的應(yīng)用領(lǐng)域
- 機(jī)器學(xué)習(xí)的主要任務(wù)
- 分類與回歸的區(qū)別
- 1. 輸出不同
- 1.1分類問題是輸出**物體的所屬類別**,而回歸問題輸出的是**物體的值**。
- 1.2分類問題輸出的值是離散的,回歸問題輸出的值是連續(xù)的
- 1.3 分類問題輸出是定性的,回歸問題輸出是定量的
- 2.目的不同
- 3.本質(zhì)不同
- 4.結(jié)果不同
- 3.場景不同
- 3.1分類問題
- 3.2回歸應(yīng)用
統(tǒng)計學(xué)習(xí)的特點(diǎn)
關(guān)于計算機(jī)基于數(shù)據(jù)構(gòu)建概率統(tǒng)計模型并運(yùn)用模型對數(shù)據(jù)進(jìn)行預(yù)測與分析的一門學(xué)科
統(tǒng)計學(xué)習(xí)的方法
- 機(jī)器學(xué)習(xí)一般包括監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、強(qiáng)化學(xué)習(xí)。有時候還包括半監(jiān)督學(xué)習(xí)、主動學(xué)習(xí)。
機(jī)器學(xué)習(xí)的步驟
- 1.數(shù)據(jù)采集
- 2.數(shù)據(jù)預(yù)處理
- 3.特征工程
- 4.模型選擇(模型訓(xùn)練和預(yù)測)
- 5.模型評價(效果評估)
統(tǒng)計學(xué)習(xí)的目的
用于對數(shù)據(jù)的預(yù)測與分析,特別是對位置新數(shù)據(jù)的預(yù)測與分析,對數(shù)據(jù)預(yù)測可以是計算機(jī)更加智能化
統(tǒng)計學(xué)習(xí)的應(yīng)用領(lǐng)域
人工智能、模式識別、數(shù)據(jù)挖掘、自然語言處理、語音處理、計算機(jī)視覺、信息檢索、生物信息等許多計算機(jī)應(yīng)用領(lǐng)域中。
機(jī)器學(xué)習(xí)的主要任務(wù)
機(jī)器學(xué)習(xí)的主要任務(wù)便是聚焦于兩個問題:分類和回歸。
分類與回歸的區(qū)別
分類和回歸都是對輸出做出預(yù)測的,并且都是監(jiān)督學(xué)習(xí)。就是根據(jù)特診,分析輸入的內(nèi)容。判斷它的類別或者預(yù)測值。
主要區(qū)別
1. 輸出不同
1.1分類問題是輸出物體的所屬類別,而回歸問題輸出的是物體的值。
比如天氣預(yù)報:天氣有晴、陰、雨三類,預(yù)測之后的天氣情況,比如下周一會天晴,這就是分類;知道今天和之前幾天的天氣溫度,來預(yù)測之后的天氣溫度,都能預(yù)測一個具體的溫度值,這個就是回歸問題。
1.2分類問題輸出的值是離散的,回歸問題輸出的值是連續(xù)的
這個連續(xù)和離散不是純數(shù)學(xué)意義上的連續(xù)與離散,很顯然回歸問題不可能測出連續(xù)數(shù)值,因為我們測得數(shù)值再接近也會存在數(shù)值域上的偏差,比如20°和19.999°之間存在無窮多個值,并且在實(shí)際生活中,測出小數(shù)點(diǎn)后三位后基本無意義。
如何理解連續(xù)與離散呢?
離散就是規(guī)定有限個數(shù)據(jù)類別,這些類別是離散的。連續(xù)就是理論上可以取某一范圍的任意值,比如20°,這是我們測出來的,但是實(shí)際溫度可能是無限趨于20°,也就是說回歸并沒有要求你的值必須是哪個類別。只要回歸出一個值,在可控范圍內(nèi)就可以了。
1.3 分類問題輸出是定性的,回歸問題輸出是定量的
定性的解釋:確定某種東西的確切的組成有什么或者某種物質(zhì)是什么,不需要測定物質(zhì)的確切數(shù)值量
定量的解釋:確定一種成分(某種物質(zhì))的確切的數(shù)值量,不需要鑒定物質(zhì)是什么
2.目的不同
分類的目的是為了尋找決策邊界,即分類算法得到的一個決策面,用于對數(shù)據(jù)集中的數(shù)據(jù)進(jìn)行分類。
回歸的目的是為了找到最優(yōu)擬合,通過回歸算法得到一個最優(yōu)擬合線,這個線條可以最好的接近數(shù)據(jù)集中的各個點(diǎn)。
3.本質(zhì)不同
所謂離散和連續(xù)的差別是分類與回歸的不同表象,而非本質(zhì),本質(zhì)在于損失函數(shù)的形式不同。
原文:https://www.zhihu.com/question/21329754/answer/204957456
4.結(jié)果不同
分類的結(jié)果沒有逼近,對就是對,錯就是錯,最終只有一個結(jié)果
回歸是一種對真實(shí)值的逼近預(yù)測,值不確定,當(dāng)預(yù)測值與真實(shí)值相近時,誤差較小時認(rèn)為這就是一個好的回歸。
3.場景不同
3.1分類問題
分類問題應(yīng)用非常廣泛,通常建立在回歸之上,分類的最后一層通常使用softmax函數(shù)進(jìn)行判斷其屬性。分類并沒有逼近的概念,最終正確結(jié)果只有一個,錯誤就是錯誤的,不會有相近的概念。
比如圖片是一只貓還是一只狗,判斷天晴還是下雨,零件是否合格
3.2回歸應(yīng)用
回歸問題通常是用來預(yù)測一個值,回歸分析用在神經(jīng)網(wǎng)絡(luò)上,其最上層不需要加上softmax函數(shù)的,而是直接對前一層累加即可。一個比較常見的回歸算法就是線性回歸算法(LR)
比如房價預(yù)測、股票的成交額。未來的天氣情況等。
總結(jié)
以上是生活随笔為你收集整理的统计学习/机器学习常用小知识的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 机器学习实战--决策树算法
- 下一篇: 池化层:最大池化MaxPool、平均池化