日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 运维知识 > windows >内容正文

windows

【scikit-learn基础】--『预处理』之 数据缩放

發(fā)布時(shí)間:2023/12/24 windows 31 coder
生活随笔 收集整理的這篇文章主要介紹了 【scikit-learn基础】--『预处理』之 数据缩放 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

數(shù)據(jù)的預(yù)處理是數(shù)據(jù)分析,或者機(jī)器學(xué)習(xí)訓(xùn)練前的重要步驟。
通過(guò)數(shù)據(jù)預(yù)處理,可以

  • 提高數(shù)據(jù)質(zhì)量,處理數(shù)據(jù)的缺失值、異常值和重復(fù)值等問(wèn)題,增加數(shù)據(jù)的準(zhǔn)確性和可靠性
  • 整合不同數(shù)據(jù),數(shù)據(jù)的來(lái)源和結(jié)構(gòu)可能多種多樣,分析和訓(xùn)練前要整合成一個(gè)數(shù)據(jù)集
  • 提高數(shù)據(jù)性能,對(duì)數(shù)據(jù)的值進(jìn)行變換,規(guī)約等(比如無(wú)量綱化),讓算法更加高效

本篇介紹的數(shù)據(jù)縮放處理,主要目的是消除數(shù)據(jù)的不同特征之間的量綱差異,使得每個(gè)特征的數(shù)值范圍相同。這樣可以避免某些特征對(duì)模型的影響過(guò)大,從而提高模型的性能。

1. 原理

數(shù)據(jù)縮放有多種方式,其中有一種按照最小值-最大值縮放的算法是最常用的。
其主要步驟如下:

  1. 計(jì)算數(shù)據(jù)列的最小值(min)和最大值(max
  2. 對(duì)數(shù)據(jù)列中的每個(gè)值進(jìn)行最小-最大縮放,即將其轉(zhuǎn)換為 **[0,1]區(qū)間 **之內(nèi)的一個(gè)值

縮放公式為:\(new\_data = \frac{data -min}{max-min}\)

實(shí)現(xiàn)縮放的代碼如下:

# 數(shù)據(jù)縮放的實(shí)現(xiàn)原理

data = np.array([10, 20, 30, 40, 50])
min = np.min(data)
max = np.max(data)

data_new = (data - min) / (max-min)

print("處理前: {}".format(data))
print("處理后: {}".format(data_new))

# 運(yùn)行結(jié)果
處理前: [10 20 30 40 50]
處理后: [0.   0.25 0.5  0.75 1.  ]

數(shù)值被縮放到 **[0,1]區(qū)間 **之內(nèi)。
這個(gè)示例只是為了演示縮放的過(guò)程,實(shí)際場(chǎng)景中最好使用scikit-learn庫(kù)中的函數(shù)。

scikit-learn中的minmax_scale函數(shù)是封裝好的數(shù)據(jù)縮放函數(shù)。

from sklearn import preprocessing as pp

data = np.array([10, 20, 30, 40, 50])
pp.minmax_scale(data, feature_range=(0, 1))

# 運(yùn)行結(jié)果
array([0.  , 0.25, 0.5 , 0.75, 1.  ])

使用scikit-learn中的minmax_scale函數(shù)得到的結(jié)果是一樣的,數(shù)據(jù)也被壓縮到 **[0,1]區(qū)間 **之內(nèi)。
所以 數(shù)據(jù)縮放 的這個(gè)操作有時(shí)也被稱為歸一化

不過(guò),數(shù)據(jù)縮放不一定非得把數(shù)據(jù)壓縮到 **[0,1]區(qū)間 **之內(nèi),
通過(guò)調(diào)整feature_range參數(shù),可以把數(shù)據(jù)壓縮到任意的區(qū)間。

# 壓縮到[0, 1]
print(pp.minmax_scale(data, feature_range=(0, 1)))

# 壓縮到[-1, 1]
print(pp.minmax_scale(data, feature_range=(-1, 1)))

# 壓縮到[0, 5]
print(pp.minmax_scale(data, feature_range=(0, 5)))

# 運(yùn)行結(jié)果
[0.   0.25 0.5  0.75 1.  ]
[-1.  -0.5  0.   0.5  1. ]
[0.   1.25 2.5  3.75 5.  ]

2. 作用

數(shù)據(jù)縮放的作用主要有:

2.1. 統(tǒng)一數(shù)據(jù)尺度

通過(guò)縮放處理,將不同量綱、不同尺度、不同單位的數(shù)據(jù)轉(zhuǎn)換成一個(gè)統(tǒng)一的尺度,
避免由于數(shù)據(jù)量綱不一致而導(dǎo)致的數(shù)據(jù)分析結(jié)果失真或誤導(dǎo)。

2.2. 增強(qiáng)數(shù)據(jù)可比性

通過(guò)縮放處理,將不同量綱、不同尺度、不同單位的數(shù)據(jù)轉(zhuǎn)換成一個(gè)統(tǒng)一的尺度,使得不同數(shù)據(jù)之間的比較更加方便和有意義。
例如,在評(píng)價(jià)多個(gè)樣本的性能時(shí),如果采用不同的量綱、不同尺度、不同單位進(jìn)行比較,會(huì)導(dǎo)致比較結(jié)果不準(zhǔn)確甚至誤導(dǎo)。
通過(guò)統(tǒng)一的縮放處理之后,可以消除這種影響,使得比較結(jié)果更加準(zhǔn)確可信。

2.3. 增強(qiáng)數(shù)據(jù)穩(wěn)定性

通過(guò)縮放處理,將數(shù)據(jù)的數(shù)值范圍調(diào)整到一個(gè)相對(duì)較小的區(qū)間內(nèi),
增加數(shù)據(jù)的穩(wěn)定性,避免由于數(shù)據(jù)分布范圍過(guò)大或過(guò)小而導(dǎo)致的分析誤差或計(jì)算誤差。

2.4. 提高算法效率和精度

通過(guò)縮放處理,使得一些計(jì)算算法的效率和精度得到提高。
例如,在神經(jīng)網(wǎng)絡(luò)算法中,如果輸入數(shù)據(jù)的尺度過(guò)大或過(guò)小,會(huì)導(dǎo)致算法訓(xùn)練時(shí)間過(guò)長(zhǎng)或過(guò)短,同時(shí)也會(huì)影響算法的精度和穩(wěn)定性。
而縮放處理之后,就可以使算法的訓(xùn)練時(shí)間和精度得到優(yōu)化。

3. 總結(jié)

scikit-learn庫(kù)中,處理數(shù)據(jù)縮放不是只有上面的最小值-最大值縮放
還可用StandardScaler進(jìn)行標(biāo)準(zhǔn)化縮放;用RobustScaler實(shí)現(xiàn)尺度縮放和平移等等。

進(jìn)行數(shù)據(jù)縮放時(shí),需要注意一點(diǎn),就是縮放處理對(duì)異常值非常敏感,
如果數(shù)據(jù)中存在極大或者極小的異常值時(shí),有可能會(huì)破壞原始數(shù)據(jù)本身。
所以,縮放處理前,最好把異常值過(guò)濾掉。

總結(jié)

以上是生活随笔為你收集整理的【scikit-learn基础】--『预处理』之 数据缩放的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。