日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人文社科 > 生活经验 >内容正文

生活经验

机器学习(6)KNN算法(K-近邻算法)

發布時間:2023/11/27 生活经验 27 豆豆
生活随笔 收集整理的這篇文章主要介紹了 机器学习(6)KNN算法(K-近邻算法) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

目錄

一、基礎理論

1、估計器?

1、生成模型

2、 模型評估

2、KNN基礎

3、API

二、過程

1、獲取數據

2、劃分數據集

3、特征工程(標準化)

4、KNN算法預估器

4-1、得到預估器

4-2、訓練(用設置好的預估器對訓練值進行訓練)

5、模型評估

5-1、得到預估器的預測結果?

5-2、對比預測值和測量目標值

5-3、得到準確率(對比特征集和目標集測試值)

代碼


一、基礎理論

1、估計器?

1、生成模型

?estimator.fit(train_data, train_target)

2、 模型評估

方法一:直接比對真實值和預測值

test_target = estimator.predict(train_test)
test_target == test_predict

方法二:計算準確率

accuracy = estimator.score(train_test, target_test)


?

2、KNN基礎

?

核心思想:根據鄰居推斷類別取k個鄰居,哪個類別更多,則歸為哪個

?定義:如果一個樣本在特征空間中的k個最相似(即特征空間中最鄰近)的樣本中的大多數屬于某一個類別,則該樣本也屬于這個類別

?

例:?

?

k值取得過小:容易受到異常點的影響。

k值取得過大:容易受到樣本不均衡的影響。

應用場景:少量數據。

計算距離:歐氏距離、曼哈頓距離、明可夫斯基距離

歐氏距離

曼哈頓距離:絕對值距離

?

3、API

sklearn.neighbors.KNeighborsClassifier

二、過程

1、獲取數據

# 1、獲取數據iris = load_iris()

2、劃分數據集

特征值目標值進行劃分,得到:

特征訓練集、特征測試集、目標訓練集、目標測試集

# 2、劃分數據集train_data, test_data, train_target, test_target = train_test_split(iris.data, iris.target)# 特征集訓練值 特征集測試值 目標集訓練值   目標值測試值

3、特征工程(標準化)

對特征集(特征訓練集和特征測試集)進行標準化。

# 3、特征工程(標準化)transfer = StandardScaler()train_data = transfer.fit_transform(train_data)test_data = transfer.transform(test_data)# 注:不進行fit處理:測試集要用訓練集的特征值和標準差(否則測試集就是在自己對自己進行測試,沒有意義)# 注:target是目標值,不能進行標準化(所以train_target和test_target不進行標準化)

4、KNN算法預估器

4-1、得到預估器

這里設置鄰居(k值)為3 ,也就是從最近的3個元素中做評估

# 4-1、得到預估器estimator = KNeighborsClassifier(n_neighbors = 3)    #n_neighbors:k(鄰居為3)

4-2、訓練(用設置好的預估器對訓練值進行訓練)

# 4-2、訓練estimator.fit(train_data, train_target)

5、模型評估

方法一:比對預測值和目標值

# 方法一:對比預測值和測量目標值predict = estimator.predict(test_data)      # 得到預測結果print(predict)print("直接比對預測值和測量目標值:\n", predict==test_target)

方法二:得到準確率

# 方法二:計算準確率score = estimator.score(test_data, test_target)print("準確率:\n", score)

代碼

# KNN算法(K-近鄰算法)
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.neighbors import KNeighborsClassifier# KNN算法
def KNN():# 1、獲取數據iris = load_iris()# 2、劃分數據集train_data, test_data, train_target, test_target = train_test_split(iris.data, iris.target)# 特征集訓練值 特征集測試值 目標集訓練值   目標值測試值# 3、特征工程(標準化)transfer = StandardScaler()train_data = transfer.fit_transform(train_data)test_data = transfer.transform(test_data)# 注:不進行fit處理:測試集要用訓練集的特征值和標準差(否則測試集就是在自己對自己進行測試,沒有意義)# 注:target是目標值,不能進行標準化(所以train_target和test_target不進行標準化)# 4、KNN算法預估器# 4-1、得到預估器estimator = KNeighborsClassifier(n_neighbors = 3)    #n_neighbors:k(鄰居為3)# 4-2、訓練(用預估器對訓練值進行訓練)estimator.fit(train_data, train_target)# 5、模型評估# 方法一:對比預測值和測量目標值predict = estimator.predict(test_data)      # 得到預測結果print(predict)print("直接比對預測值和測量目標值:\n", predict==test_target)# 方法二:計算準確率score = estimator.score(test_data, test_target)print("準確率:\n", score)if __name__ == '__main__':KNN()       #KNN算法

缺點:K值的確定

總結

以上是生活随笔為你收集整理的机器学习(6)KNN算法(K-近邻算法)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。