日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

决策树的理解

發布時間:2024/4/17 编程问答 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 决策树的理解 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
  • 決策樹的分類速度快

    決策樹有個步驟:特征選擇,決策樹生成,和決策樹的修剪。

  • 特許選擇:在于選取對訓練數據具有分類能力的特征,這樣可以提高決策樹學習的效率。如果利用一個特征進行分類的結果與隨機分類的結果沒有很大差別,則稱這個特征是沒有分類能力的。經驗上任掉這些的特征對決策樹學習的精度影響。

  • 通常特征選擇的準則是信息增益,或信息增益比。

    在學習信息增益的時候,首先是要了解一個概念:熵(entropy)是表示隨機變量不確定的度量,

    信息越少,越是不確定,熵也就會越大。熵的公式為H(x)=-sum(pi*logpi)(i=1,2....n)

    熵的取值只依賴于x的分布,并不是x越大,熵就越大,等。

    信息增益 g(D,A)特征A對訓練集D的信息增益==H(D)-H(D/A)之差。又稱互信息。


  • 信息增益存在一定的問題,往往偏向于選擇取值較多的特征的問題

    后人又提出信息增益比: ?gr(D,A)=g(D,A)/Ha(D)意思就是A在特征D上的信息增益比上A的信息熵。

    ID3,C4.5算法的生成不再這講

    決策樹生成算法遞歸地產生決策樹,直到不能繼續下去為止。模型復雜,這樣產生的樹往往對訓練數據的分類很正確,但是往往會出現過擬合現象,降低模型復雜度,就是對決策樹進行剪枝。

    CART回歸樹。

    轉載于:https://blog.51cto.com/1464490021/1974060

    總結

    以上是生活随笔為你收集整理的决策树的理解的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。