【零基础入门数据挖掘】-数据分析
?Datawhale?
作者:王瑞楠,Datawhale優(yōu)秀學(xué)習(xí)者
摘要:對于數(shù)據(jù)挖掘項(xiàng)目,本文將學(xué)習(xí)應(yīng)該從哪些角度分析數(shù)據(jù)?如何對數(shù)據(jù)進(jìn)行整體把握,如何處理異常值與缺失值,從哪些維度進(jìn)行特征及預(yù)測值分析?
探索性數(shù)據(jù)分析(Exploratory Data Analysis,EDA)是指對已有數(shù)據(jù)在盡量少的先驗(yàn)假設(shè)下通過作圖、制表、方程擬合、計(jì)算特征量等手段探索數(shù)據(jù)的結(jié)構(gòu)和規(guī)律的一種數(shù)據(jù)分析方法。
數(shù)據(jù)及背景
https://tianchi.aliyun.com/competition/entrance/231784/information(阿里天池-零基礎(chǔ)入門數(shù)據(jù)挖掘)
EDA的目標(biāo)
熟悉數(shù)據(jù)集,了解數(shù)據(jù)集,對數(shù)據(jù)集進(jìn)行驗(yàn)證來確定所獲得數(shù)據(jù)集可以用于接下來的機(jī)器學(xué)習(xí)或者深度學(xué)習(xí)使用。
了解變量間的相互關(guān)系以及變量與預(yù)測值之間的存在關(guān)系。
引導(dǎo)數(shù)據(jù)科學(xué)從業(yè)者進(jìn)行數(shù)據(jù)處理以及特征工程的步驟,使數(shù)據(jù)集的結(jié)構(gòu)和特征集讓接下來的預(yù)測問題更加可靠。
數(shù)據(jù)載入及總覽
載入各種數(shù)據(jù)科學(xué)以及可視化庫
missingno庫用于可視化缺失值分布,是基于matplotlib的,接受pandas數(shù)據(jù)源
import pandas as pd import numpy as np import matplotlib.pyplot as plt import seaborn as sns import missingno as msno # 用于可視化缺失值分布 import?scipy.stats?as?st載入數(shù)據(jù)
path = './data/' Train_data = pd.read_csv(path+'used_car_train_20200313.csv', sep=' ') Test_data?=?pd.read_csv(path+'used_car_testA_20200313.csv',?sep='?')所有特征集均脫敏處理,脫敏處理后均為label encoding形式,即數(shù)字形式
總覽數(shù)據(jù)
簡略觀察數(shù)據(jù)head()+shape
Train_data.head().append(Train_data.tail()) Test_data.head().append(Test_data.tail()) Train_data.shape Test_data.shapedescribe()熟悉相關(guān)統(tǒng)計(jì)量
describe()中包含每列的統(tǒng)計(jì)量,個(gè)數(shù)(count)、平均值(mean)、方差(std)、最小值(min)、中位數(shù)(25% 50% 75%)、最大值(max)等。通過觀察以上指標(biāo),可以瞬間掌握數(shù)據(jù)的大概范圍和每個(gè)值的異常值的判斷 ,例如有時(shí)候會(huì)發(fā)現(xiàn)999 9999、 -1 等值這些其實(shí)都是nan的另外一種表達(dá)方式。
Train_data.describe()info()熟悉數(shù)據(jù)類型
通過info()來了解數(shù)據(jù)每列的type,有助于了解是否存在除了nan以外的特殊符號(hào)異常。
Train_data.info()缺失值和異常值
缺失值
查看每列的存在nan情況
排序函數(shù)sort_values()
可以將數(shù)據(jù)集依照某個(gè)字段中的數(shù)據(jù)進(jìn)行排序,該函數(shù)即可根據(jù)指定列數(shù)據(jù)也可根據(jù)指定行的
通過以下兩句可以很直觀的了解哪些列存在 “nan”, 并可以把nan的個(gè)數(shù)打印。主要的目的在于 nan存在的個(gè)數(shù)是否真的很大,如果很小一般選擇填充,如果使用lgb等樹模型可以直接空缺,讓樹自己去優(yōu)化,但如果nan存在的過多、可以考慮刪掉。
# nan可視化 missing = Train_data.isnull().sum() missing = missing[missing > 0] missing.sort_values(inplace=True) missing.plot.bar() # 可視化缺省值 msno.matrix(Train_data.sample(250)) msno.bar(Train_data.sample(1000)) msno.matrix(Test_data.sample(250)) msno.bar(Test_data.sample(1000))從上文Train_data.info()的統(tǒng)計(jì)信息可以發(fā)現(xiàn),除了notRepairedDamage 為object類型其他都為數(shù)字。接下來將notRepairedDamage中幾個(gè)不同的值都進(jìn)行顯示如下:
Train_data['notRepairedDamage'].value_counts()可以看出‘ - ’也為空缺值,因?yàn)楹芏嗄P蛯an有直接的處理,這里我們先不做處理,先替換成nan。
Train_data['notRepairedDamage'].replace('-', np.nan, inplace=True) Train_data['notRepairedDamage'].value_counts() Train_data.isnull().sum()異常值
以下兩個(gè)類別特征:seller和offerType嚴(yán)重傾斜,一般不會(huì)對預(yù)測有什么幫助,故這邊先刪掉,當(dāng)然你也可以繼續(xù)挖掘,但是一般意義不大
Train_data["seller"].value_counts() Train_data["offerType"].value_counts() del Train_data["seller"] del Train_data["offerType"] del Test_data["seller"] del Test_data["offerType"]預(yù)測值分布
總體分布概況
數(shù)據(jù)整體服從正態(tài)分布,樣本均值和方差則相互獨(dú)立,正態(tài)分布具有很多好的性質(zhì),很多模型也假設(shè)數(shù)據(jù)服從正態(tài)分布。
例如線性回歸(linear regression),它假設(shè)誤差服從正態(tài)分布,從而每個(gè)樣本點(diǎn)出現(xiàn)的概率就可以表示為正態(tài)分布形式,將多個(gè)樣本點(diǎn)連乘再取對數(shù),就是所有訓(xùn)練集樣本出現(xiàn)的條件概率,最大化該條件概率就是LR最終求解的問題。這個(gè)條件概率的最終表達(dá)式的形式就是我們熟悉的誤差平方和。
總之, 機(jī)器學(xué)習(xí)中很多model都假設(shè)數(shù)據(jù)或參數(shù)服從正態(tài)分布。當(dāng)樣本不服從正態(tài)分布時(shí),可以做如下轉(zhuǎn)換:
線性變化z-scores
使用Boxcox變換
使用yeo-johnson變換
盲目假設(shè)變量服從正態(tài)分布可能導(dǎo)致不準(zhǔn)確的結(jié)果,要結(jié)合分析。例如:不能假設(shè)股票價(jià)格服從正態(tài)分布,因?yàn)閮r(jià)格不能為負(fù),故我們可以將股票價(jià)格假設(shè)為服從對數(shù)正態(tài)分布,以確保其值≥0;而股票收益可能是負(fù)數(shù),因此收益可以假設(shè)服從正態(tài)分布。
當(dāng)樣本數(shù)據(jù)表明質(zhì)量特征的分布為非正態(tài)時(shí),應(yīng)用基于正態(tài)分布的方法會(huì)作出不正確的判決。約翰遜分布族即為經(jīng)約翰(yeo-johnson)變換后服從正態(tài)分布的隨機(jī)變量的概率分布,約翰遜分布體系建立了三族分布,分別為有界SB 、對數(shù)正態(tài)SL和無界SU。
本案例的預(yù)測值為價(jià)格,顯然不符合正態(tài)分布,故分別采用無界約翰遜分布Johnson SU、正態(tài)分布normal、對數(shù)正態(tài)分布lognormal,綜合來看無界約翰遜分布對price的擬合效果更好。
y = Train_data['price'] plt.figure(1); plt.title('Johnson SU') sns.distplot(y, kde=False, fit=st.johnsonsu) plt.figure(2); plt.title('Normal') sns.distplot(y, kde=False, fit=st.norm) plt.figure(3); plt.title('Log Normal') sns.distplot(y,?kde=False,?fit=st.lognorm)偏度和峰度
sns.distplot(Train_data['price']); print("Skewness: %f" % Train_data['price'].skew()) print("Kurtosis: %f" % Train_data['price'].kurt()) sns.distplot(Train_data.skew(),color='blue',axlabel ='Skewness') sns.distplot(Train_data.kurt(),color='orange',axlabel?='Kurtness') Train_data.skew(), Train_data.kurt()
預(yù)測值頻數(shù)
大于20000的值很少,其實(shí)該處可將其當(dāng)作異常值處理填充或刪除,本文中經(jīng)過log變換之后,分布較均勻,可據(jù)此進(jìn)行預(yù)測,這也是預(yù)測問題常用的技巧
plt.hist(Train_data['price'], orientation = 'vertical',histtype = 'bar', color ='red') plt.show() plt.hist(np.log(Train_data['price']), orientation = 'vertical',histtype = 'bar', color ='red') plt.show()特征分析
數(shù)字特征
‘seller’和‘offerType’已被刪除,其他特征均經(jīng)過了label coding。若需要處理的數(shù)據(jù)未label coding,則可通過如下代碼對特征進(jìn)行區(qū)分:
# 數(shù)字特征 numeric_features = Train_data.select_dtypes(include=[np.number]) numeric_features.columns # 類型特征 categorical_features = Train_data.select_dtypes(include=[np.object]) categorical_features.columns本文數(shù)據(jù)已經(jīng)label coding,故采用人工區(qū)分方法:
numeric_features?=?['power',?'kilometer',?'v_0',?'v_1',?'v_2',?'v_3',?'v_4',?'v_5',?'v_6',?'v_7',?'v_8',?'v_9',?'v_10',?'v_11',?'v_12',?'v_13','v_14'?] categorical_features?=?['name',?'model',?'brand',?'bodyType',?'fuelType',?'gearbox',?'notRepairedDamage',?'regionCode']總覽
相關(guān)性分析
price_numeric = Train_data[numeric_features] correlation = price_numeric.corr() print(correlation['price'].sort_values(ascending=False),'\n') f, ax = plt.subplots(figsize = (7, 7)) plt.title('Correlation of Numeric Features with Price',y=1,size=16) sns.heatmap(correlation,square = True, vmax=0.8) del?price_numeric['price']特征偏度和峰值
for col in numeric_features:print('{:15}'.format(col), 'Skewness: {:05.2f}'.format(Train_data[col].skew()) , ' ' ,'Kurtosis: {:06.2f}'.format(Train_data[col].kurt()) )每個(gè)數(shù)字特征的分布可視化
pd.melt():處理數(shù)據(jù),透視表格,可將寬數(shù)據(jù)轉(zhuǎn)化為長數(shù)據(jù),以便于后續(xù)分析。形成的數(shù)據(jù)即為,鍵:各特征名稱,值:特征對應(yīng)的值
sns.FacetGrid() :先sns.FacetGrid()畫出輪廓,再map()填充內(nèi)容
f = pd.melt(Train_data, value_vars=numeric_features) g = sns.FacetGrid(f, col="variable", col_wrap=2, sharex=False, sharey=False) g = g.map(sns.distplot, "value")匿名特征分布情況
sns.pairplot():展示變量兩兩之間的關(guān)系(線性或非線性,有無較為明顯的相關(guān)關(guān)系):
對角線:各個(gè)屬性的直方圖,用diag_kind屬性控制圖類型,可選"scatter"與"reg"
非對角線:兩個(gè)不同屬性之間的相關(guān)圖,用kind屬性控制圖類型,可選"scatter"與"reg"
hue :針對某一字段進(jìn)行分類
多變量與price的回歸關(guān)系
類別特征
查看nunique分布
for cat_fea in categorical_features:print(cat_fea + '特征分布如下:')print('{}特征有{}個(gè)不同的值'.format(cat_fea, Train_data[cat_fea].nunique()))print(Train_data[cat_fea].value_counts())查看箱型圖
直觀識(shí)別數(shù)據(jù)中的離群點(diǎn)
直觀判斷數(shù)據(jù)離散分布情況,了解數(shù)據(jù)分布狀態(tài)
查看小提琴圖
用于顯示數(shù)據(jù)分布及概率密度
這種圖表結(jié)合了箱形圖和密度圖的特征,主要用來顯示數(shù)據(jù)的分布形狀
查看柱形圖
def bar_plot(x, y, **kwargs):sns.barplot(x=x, y=y)x=plt.xticks(rotation=90)f = pd.melt(Train_data, id_vars=['price'], value_vars=categorical_features) g = sns.FacetGrid(f, col="variable", col_wrap=2, sharex=False, sharey=False, size=5) g?=?g.map(bar_plot,?"value",?"price")類別頻數(shù)可視化
def count_plot(x, **kwargs):sns.countplot(x=x)x=plt.xticks(rotation=90)f = pd.melt(Train_data, value_vars=categorical_features) g = sns.FacetGrid(f, col="variable", col_wrap=2, sharex=False, sharey=False, size=5) g?=?g.map(count_plot,?"value")生成數(shù)據(jù)報(bào)告
用pandas_profiling生成一個(gè)較為全面的可視化和數(shù)據(jù)報(bào)告(較為簡單、方便) 最終打開html文件即可
import pandas_profiling pfr = pandas_profiling.ProfileReport(Train_data) pfr.to_file("./example.html")參考
【1】構(gòu)建模型時(shí)為什么要盡量將偏態(tài)數(shù)據(jù)轉(zhuǎn)換為正態(tài)分布數(shù)據(jù)?
【2】張維銘,施雪忠,樓龍翔.非正態(tài)數(shù)據(jù)變換為正態(tài)數(shù)據(jù)的方法[J].浙江工程學(xué)院學(xué)報(bào),2000(03):56-59.
【3】偏度與峰度的正態(tài)性分布判斷
【4】數(shù)據(jù)的偏度和峰度——df.skew()、df.kurt()
【5】Melt函數(shù)處理數(shù)據(jù),透視表格,寬數(shù)據(jù)變成長數(shù)據(jù)
【6】seaborn可視化之FacetGrid()
【7】Seaborn5分鐘入門(七)——pairplot
【8】箱型圖和小提琴圖分析
往期精彩回顧適合初學(xué)者入門人工智能的路線及資料下載機(jī)器學(xué)習(xí)在線手冊深度學(xué)習(xí)在線手冊AI基礎(chǔ)下載(pdf更新到25集)本站qq群1003271085,加入微信群請回復(fù)“加群”獲取一折本站知識(shí)星球優(yōu)惠券,請回復(fù)“知識(shí)星球”喜歡文章,點(diǎn)個(gè)在看
總結(jié)
以上是生活随笔為你收集整理的【零基础入门数据挖掘】-数据分析的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 【零基础入门数据挖掘】-建模调参
- 下一篇: 备战2020腾讯广告算法大赛:(2017