日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

逻辑回归实验

發(fā)布時(shí)間:2025/3/21 编程问答 22 豆豆
生活随笔 收集整理的這篇文章主要介紹了 逻辑回归实验 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

邏輯回歸實(shí)驗(yàn)

文章目錄

  • 邏輯回歸實(shí)驗(yàn)
    • 實(shí)驗(yàn)說(shuō)明
    • 實(shí)驗(yàn)步驟
    • 參數(shù)優(yōu)化

實(shí)驗(yàn)說(shuō)明

雖然模型名字叫做邏輯回歸,實(shí)際上我們經(jīng)常用它來(lái)做分類任務(wù)。這次的數(shù)據(jù)集我們使用的是 sklearn 包中自帶的紅酒數(shù)據(jù)集。

  • 實(shí)驗(yàn)環(huán)境:Pycharm
  • Python版本:3.6
  • 需要的第三方庫(kù):sklearn

實(shí)驗(yàn)步驟

一個(gè)簡(jiǎn)單的機(jī)器學(xué)習(xí)實(shí)驗(yàn)基本就是那六個(gè)步驟,這里不再提及了。

關(guān)于訓(xùn)練集和測(cè)試集的劃分我們使用的是留出法,最后的結(jié)果我們使用準(zhǔn)確率來(lái)進(jìn)行評(píng)估。

代碼如下:

# 邏輯回歸,紅酒數(shù)據(jù)集from sklearn.datasets import load_wine from sklearn.linear_model import LogisticRegression from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score# 加載數(shù)據(jù)集 wind_data = load_wine() x = wind_data.data y = wind_data.target # 拆分?jǐn)?shù)據(jù)集 x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.2, random_state=10)# 創(chuàng)建模型 lr = LogisticRegression(solver='saga',multi_class='ovr',penalty='l2',max_iter=10000,random_state=10 ) # 訓(xùn)練模型 lr.fit(x_train, y_train)# 模型預(yù)測(cè) lr_predict = lr.predict(x_test) # 模型評(píng)價(jià) a_score = accuracy_score(y_test, lr_predict) print("accuracy_score: ", a_score)

此時(shí)的模型預(yù)測(cè)準(zhǔn)確率為0.89

參數(shù)優(yōu)化

雖然模型的準(zhǔn)確率已經(jīng)很不錯(cuò)了,但是我們?nèi)匀豢梢詫?duì)其進(jìn)行優(yōu)化。

正則化選擇參數(shù) penalty 我們考慮使用 L1 正則化,優(yōu)化算法選擇參數(shù) solver 使用 liblinear,分類方式選擇參數(shù) multi_class 使用 ovr,類型權(quán)重參數(shù) class_weight 使用 balanced,隨機(jī)種子為200。

如果想要知道具體怎么進(jìn)行優(yōu)化,可以參考這一篇博客 sklearn邏輯回歸(Logistic Regression,LR)類庫(kù)使用小結(jié)

# 邏輯回歸,紅酒數(shù)據(jù)集from sklearn.datasets import load_wine from sklearn.linear_model import LogisticRegression from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score# 加載數(shù)據(jù)集 wind_data = load_wine() x = wind_data.data y = wind_data.target # 拆分?jǐn)?shù)據(jù)集 x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.2, random_state=200)# 創(chuàng)建模型 lr = LogisticRegression(solver='liblinear',multi_class='ovr',penalty='l1',max_iter=10000,class_weight='balanced',random_state=200 ) # 訓(xùn)練模型 lr.fit(x_train, y_train)# 模型預(yù)測(cè) lr_predict = lr.predict(x_test) # 模型評(píng)價(jià) a_score = accuracy_score(y_test, lr_predict) print("accuracy_score: ", a_score)

可以看到,模型預(yù)測(cè)的準(zhǔn)確率達(dá)到了 0.97,非常棒了。

總結(jié)

以上是生活随笔為你收集整理的逻辑回归实验的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。