Sklearn-scaler对比
生活随笔
收集整理的這篇文章主要介紹了
Sklearn-scaler对比
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
原始數據分布:
- StandardScaler:通過減去均值,除以標準差。異常數據對均值和方差的影響很大,會導致特征數據范圍縮小 z=(x?u)sz = \frac{(x - u)}{ s}z=s(x?u)?
- MinMaxScaler將所有數據歸一化到[0,1]區間內,但是由于異常值的影響,特征數據的分布范圍變得很窄。與standardscalar一樣,對異常值銘感Xstd=(X?X.min)(X.max(axis=0)?X.min(axis=0))X_{std} = \frac{(X - X.min)} {(X.max(axis=0) - X.min(axis=0))}Xstd?=(X.max(axis=0)?X.min(axis=0))(X?X.min)?Xscaled=Xstd?(max?min)+minX_{scaled} = X_{std} * (max - min) + minXscaled?=Xstd??(max?min)+min
MaxAbsScaler,將數據壓縮到了[-1,1]區間內,對異常值敏感X=X∣X∣.maxX=\frac{X}{|X|.max}X=∣X∣.maxX?
RobustScaler和前面三個方法不同,對異常值不敏感$$$$
PowerTransformer$$$$
QuantileTransformer (Gaussian output)$$$$
QuantileTransformer (uniform output)
Normalizer
總結
以上是生活随笔為你收集整理的Sklearn-scaler对比的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: pr cpu100%_6款超酷炫又小众的
- 下一篇: sio.savemat得到空struct