日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程语言 > python >内容正文

python

pythonsklearn教学_Python使用sklearn实现的各种回归算法示例

發(fā)布時(shí)間:2024/9/19 python 22 豆豆
生活随笔 收集整理的這篇文章主要介紹了 pythonsklearn教学_Python使用sklearn实现的各种回归算法示例 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

本文實(shí)例講述了Python使用sklearn實(shí)現(xiàn)的各種回歸算法。分享給大家供大家參考,具體如下:

使用sklearn做各種回歸

基本回歸:線性、決策樹、SVM、KNN

集成方法:隨機(jī)森林、Adaboost、GradientBoosting、Bagging、ExtraTrees

1. 數(shù)據(jù)準(zhǔn)備

為了實(shí)驗(yàn)用,我自己寫了一個(gè)二元函數(shù),y=0.5*np.sin(x1)+ 0.5*np.cos(x2)+0.1*x1+3。其中x1的取值范圍是0~50,x2的取值范圍是-10~10,x1和x2的訓(xùn)練集一共有500個(gè),測(cè)試集有100個(gè)。其中,在訓(xùn)練集的上加了一個(gè)-0.5~0.5的噪聲。生成函數(shù)的代碼如下:

def f(x1, x2):

y = 0.5 * np.sin(x1) + 0.5 * np.cos(x2) + 0.1 * x1 + 3

return y

def load_data():

x1_train = np.linspace(0,50,500)

x2_train = np.linspace(-10,10,500)

data_train = np.array([[x1,x2,f(x1,x2) + (np.random.random(1)-0.5)] for x1,x2 in zip(x1_train, x2_train)])

x1_test = np.linspace(0,50,100)+ 0.5 * np.random.random(100)

x2_test = np.linspace(-10,10,100) + 0.02 * np.random.random(100)

data_test = np.array([[x1,x2,f(x1,x2)] for x1,x2 in zip(x1_test, x2_test)])

return data_train, data_test

其中訓(xùn)練集(y上加有-0.5~0.5的隨機(jī)噪聲)和測(cè)試集(沒有噪聲)的圖像如下:

2. scikit-learn的簡(jiǎn)單使用

scikit-learn非常簡(jiǎn)單,只需實(shí)例化一個(gè)算法對(duì)象,然后調(diào)用fit()函數(shù)就可以了,fit之后,就可以使用predict()函數(shù)來預(yù)測(cè)了,然后可以使用score()函數(shù)來評(píng)估預(yù)測(cè)值和真實(shí)值的差異,函數(shù)返回一個(gè)得分。

完整程式化代碼為:

import numpy as np

import matplotlib.pyplot as plt

###########1.數(shù)據(jù)生成部分##########

def f(x1, x2):

y = 0.5 * np.sin(x1) + 0.5 * np.cos(x2) + 3 + 0.1 * x1

return y

def load_data():

x1_train = np.linspace(0,50,500)

x2_train = np.linspace(-10,10,500)

data_train = np.array([[x1,x2,f(x1,x2) + (np.random.random(1)-0.5)] for x1,x2 in zip(x1_train, x2_train)])

x1_test = np.linspace(0,50,100)+ 0.5 * np.random.random(100)

x2_test = np.linspace(-10,10,100) + 0.02 * np.random.random(100)

data_test = np.array([[x1,x2,f(x1,x2)] for x1,x2 in zip(x1_test, x2_test)])

return data_train, data_test

train, test = load_data()

x_train, y_train = train[:,:2], train[:,2] #數(shù)據(jù)前兩列是x1,x2 第三列是y,這里的y有隨機(jī)噪聲

x_test ,y_test = test[:,:2], test[:,2] # 同上,不過這里的y沒有噪聲

###########2.回歸部分##########

def try_different_method(model):

model.fit(x_train,y_train)

score = model.score(x_test, y_test)

result = model.predict(x_test)

plt.figure()

plt.plot(np.arange(len(result)), y_test,'go-',label='true value')

plt.plot(np.arange(len(result)),result,'ro-',label='predict value')

plt.title('score: %f'%score)

plt.legend()

plt.show()

###########3.具體方法選擇##########

####3.1決策樹回歸####

from sklearn import tree

model_DecisionTreeRegressor = tree.DecisionTreeRegressor()

####3.2線性回歸####

from sklearn import linear_model

model_LinearRegression = linear_model.LinearRegression()

####3.3SVM回歸####

from sklearn import svm

model_SVR = svm.SVR()

####3.4KNN回歸####

from sklearn import neighbors

model_KNeighborsRegressor = neighbors.KNeighborsRegressor()

####3.5隨機(jī)森林回歸####

from sklearn import ensemble

model_RandomForestRegressor = ensemble.RandomForestRegressor(n_estimators=20)#這里使用20個(gè)決策樹

####3.6Adaboost回歸####

from sklearn import ensemble

model_AdaBoostRegressor = ensemble.AdaBoostRegressor(n_estimators=50)#這里使用50個(gè)決策樹

####3.7GBRT回歸####

from sklearn import ensemble

model_GradientBoostingRegressor = ensemble.GradientBoostingRegressor(n_estimators=100)#這里使用100個(gè)決策樹

####3.8Bagging回歸####

from sklearn.ensemble import BaggingRegressor

model_BaggingRegressor = BaggingRegressor()

####3.9ExtraTree極端隨機(jī)樹回歸####

from sklearn.tree import ExtraTreeRegressor

model_ExtraTreeRegressor = ExtraTreeRegressor()

###########4.具體方法調(diào)用部分##########

try_different_method(model_DecisionTreeRegressor)

3.結(jié)果展示

決策樹回歸結(jié)果:

線性回歸結(jié)果:

SVM回歸結(jié)果:

KNN回歸結(jié)果:

隨機(jī)森林回歸結(jié)果:

Adaboost回歸結(jié)果:

GBRT回歸結(jié)果:

Bagging回歸結(jié)果:

極端隨機(jī)樹回歸結(jié)果:

希望本文所述對(duì)大家Python程序設(shè)計(jì)有所幫助。

總結(jié)

以上是生活随笔為你收集整理的pythonsklearn教学_Python使用sklearn实现的各种回归算法示例的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。