日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

朴素贝叶斯(Naive Bayes)和校正曲线(Calibration Curve)

發布時間:2024/3/24 编程问答 42 豆豆
生活随笔 收集整理的這篇文章主要介紹了 朴素贝叶斯(Naive Bayes)和校正曲线(Calibration Curve) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

算法回顧

?

圖片來源:https://medium.com/machine-learning-101/chapter-1-supervised-learning-and-naive-bayes-classification-part-1-theory-8b9e361897d5

貝葉斯分類算法屬于有監督機器學習(Supervised Learning)。貝葉斯分類器是一類分類算法的總稱,這類算法均以貝葉斯定理為基礎,故統稱為貝葉斯分類。其中樸素貝葉斯分分類是貝葉斯分類中最簡單的,也是最常見的一種分類方法。

樸素貝葉斯分類算法的核心如下公式:

P(A):它是先驗該率(Prior Probability),是A發生的概率。

P(B): 是邊際可能性(Marginal Likelihood):是B發生的概率。

P(B|A):是可能性(likelihood),基于給定的A,B發生的概率,即已知A發生,B發生的概率。

P(A|B):是后驗概率(Posterior Probability):基于給定的B,A發生的概率,即已知B發生,A發生的概率。

換個表達式可能理解的就會更加透徹:

以下是從Udemy上借鑒的一個例子:

假設有兩個特征,分別為工資(Salary)和年齡(Age),已知有兩種分類分別為:步行(Walks)和自駕(Drives),如上圖所示。

當有一個新數據點進來時(如灰色點),基于給定它的特征工資和年齡,應該把它分為哪類?

其中,$P(Walks) = {10} \over {30}$,$P(Drives)={20} \over {30}$。

首先計算P(Walks|X)的概率,可以參見如下公式:

?

首先,需要自定義一個參考集,如下圖中虛線所示。

  • 先驗概率(步行上班發生的概率)為:$P(Walks)={10} \over {40}$;
  • 邊際可能性為:$P(X)={4} \over {30}$;
  • 可能性為:$P(X|Walks)={3} \over {10}$;
  • 后驗概率(給定特征情況下,步行上班發生的概率)為:$P(Walks|X) = {0.3 * 0.25} \over {4 \over 30} = 0.75$。

?

計算$P(Walks|X)$后計算$P(Drivers|X)$,通過比較兩個概率的大小,來決定灰色點屬于哪類(Walks 或者 Drives)。通過比較不難得出灰色點屬于“步行上班”類別(此處省略計算過程)。

在機器學習中,樸素貝葉斯分類器是基于貝葉斯理論(該理論中有很強的特征間獨立性假設)的一個簡單“概率分類”的家族。因此,樸素貝葉斯分類算法屬于概率的機器學習(probabilistic machine learning),并且可應用于很多分類的任務中。典型的應用有垃圾郵件篩選(filtering spam),分類文件(classifying documents),情緒預測(sentiment prediction)。

在scikit-learn中,一共提供三種樸素貝葉斯的方法,分別為高斯樸素貝葉斯(Gaussian Naive Bayes)、二項式樸素貝葉斯(Multinomial Naive Bayes),伯努利樸素貝葉斯(Bernoulli Naive Bayes)和補足樸素貝葉斯(Complement Naive Bayes)。官方文檔中給出以高斯樸素貝葉斯為例的代碼,示例如下:

>>> from sklearn.datasets import load_iris >>> from sklearn.model_selection import train_test_split >>> from sklearn.naive_bayes import GaussianNB >>> X, y = load_iris(return_X_y=True) >>> X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.5, random_state=0) >>> gnb = GaussianNB() >>> y_pred = gnb.fit(X_train, y_train).predict(X_test) >>> print("Number of mislabeled points out of a total %d points : %d" ... ? ? ? % (X_test.shape[0], (y_test != y_pred).sum())) Number of mislabeled points out of a total 75 points : 4

概率校正

分類概率在一些機器模型中應用廣泛,在scikit-learn中,大多數機器學習算法通過使用predict_proba函數,允許計算樣本各類別的概率。這個功能對于一些情況下是極為有效的,例如,如果某一類的模型預測概率是大于歐90%的。但是,包括樸素貝葉斯等模型,它的模型預測概率與現實中的概率不盡相同。例如,函數predict_proba預測某個樣本屬于某類的樣本概率是70%,而實際只有0.1或者0.99。尤其對于樸素貝葉斯模型而言,盡管不同目標類的預測概率有效(valid),但原始概率往往采用接僅0和1的極端值。

為了得到有意義的預測概率,需要采用模型“校正”(calibration)。在scikit-learn中,使用CalibratedClassifierCV分類,通過k折交叉驗證(k-fold cross-validation)來生成“好的”校正的預測概率。在CalibratedClassifierCV中,訓練集用于訓練模型,測試集用于矯正模型預測概率。返回的預測概率是k-fold的均值。詳見參考 文章。

代碼示例如下:

# 導入相關的庫 from sklearn import datasets from sklearn.naive_bayes import GaussianNB from sklearn.calibration import CalibratedClassifierCV ? # 載入鶯尾花數據集 iris = datasets.load_iris() X = iris.data y = iris.target ? # 構建樸素貝葉斯分類對象 clf = GaussianNB() ? # 構建校正器 clf_sigmoid = CalibratedClassifierCV(clf, cv=2, method='sigmoid') ? # 構建帶有校正概率的分類器 clf_sigmoid.fit(X, y) ? # 構建新樣本 new_observation = [[ 2.6, ?2.6, ?2.6, ?0.4]] ? # 得到矯正后的概率 clf_sigmoid.predict_proba(new_observation)

根據Alexandru和Rich在2005年發表的題為“Predicting Good Probabilities With Supervised Learning”論文[1]中指出:對于樸素貝葉斯模型而言,對于不同校正集合的大小,Isotonic Regression的表現都優于Platt Scaling方法(在CalibratedClassifierCV中,用參數method定義)。因此,這對樸素貝葉斯模型的參數設置,可以優先考慮Isotonic Regression方法。

參考文章:

[1] Niculescu-Mizil, A., & Caruana, R. (2005, August). Predicting good probabilities with supervised learning. In Proceedings of the 22nd international conference on Machine learning (pp. 625-632).

(1)獲取更多優質內容及精彩資訊,可前往:https://www.cda.cn/?seo

(2)了解更多數據領域的優質課程:

?

?

總結

以上是生活随笔為你收集整理的朴素贝叶斯(Naive Bayes)和校正曲线(Calibration Curve)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。