日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

机器学习案例:scikit-learn实现ebay数据分析

發布時間:2025/3/8 编程问答 25 豆豆
生活随笔 收集整理的這篇文章主要介紹了 机器学习案例:scikit-learn实现ebay数据分析 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

ebay在線拍賣數據分析

ebay在線拍賣數據

數據集下載地址為?Ebay Data Set(https://cims.nyu.edu/~munoz/data/)

raw.tar.gz中包括TrainingSet.csv,TestSet.csv,TrainingSubset.csv和TestSubset.csv這四個數據文件,下表列出了這四個文件的內容簡介

數據名數據描述
TrainingSet2013年4月的所有拍賣
TestSet2013年5月第一個周的所有拍賣
TrainingSubset2013年4月成功交易的所有拍賣
TestSubset2013年5月第一周成功交易的所有拍賣

數據中的特征名及其對應描述:

特征名特征描述
Prices最終交易金額
StartingBid拍賣的最低交易金額
BidCount此項拍賣獲得的投標數
Title交易標題
QuantitySold成功銷售的數量(0或1表示)
SellerRating賣家在ebay上的評級
StartDate拍賣開始的日期
EndDate拍賣結束的日期
PositiveFeedbackPercent賣家收到的正反饋百分比(占所有反饋)
HasPicture是否有實物圖(0或1)
MemberSince賣家創建其在ebay上的賬戶日期
HasStore賣家是否有ebay店鋪(0或1)
SellerCountry賣家所在的國家
BuyitNowPrice立即購買該商品的價格
HighBidderFeedbackRating出價最高的投標者的ebay評級
ReturnsAccepted是否接受退貨(0或1表示)
HasFreeShipping是否包郵(0或1表示)
IsHOF賣家中是否是名人堂中的玩家(0或1表示)
IsAuthenticated是否受到工會的認證(0或1表示)
HasInscription拍賣項目是否有登記過(0或1表示)
AvgPrice庫存中關于這款商品的平均價格
MedianPrice庫存中這款商品價格的中位數
AuctionCount庫存中拍賣的總數
SellerSaleToAveragePriceRatio這項拍賣商品的價格占平均價格的比例
StateDayOfWeek拍賣開始時是周幾
EndDayOfWeek拍賣結束時是周幾
AuctionDuration拍賣持續的天數
StartingBidPercent該商品投標底線占平均交易價格的比例
SellerClosePercent一個賣家成功交易的拍賣數占所有在線拍賣數的比例
ItemAuctionSellPercent成功交易的拍賣數占所有在線拍賣數的比例

數據導入及可視化

實驗用的環境是Jupyter Python3.6

首先導入相關的包:

import pandas as pd import numpy as np import seaborn as sns import matplotlib.pyplot as plt %matplotlib inline

讀入數據:

test_set = pd.read_csv("Data/TestSet.csv") train_set = pd.read_csv("Data/TrainingSet.csv") test_subset = pd.read_csv("Data/TestSubset.csv") train_subset = pd.read_csv("Data/TrainingSubset.csv")

輸出查看train_set的數據:

train_set.info() # Output train_set data

也可以使用head()查看前5條數據

train_set.head()

第一列屬性EbayID為每條拍賣紀錄的ID號,與預測拍賣是否成功沒有聯系,因此在模型訓練時應該將該特征去除。QuantitySold屬性為1代表拍賣成功,為0代表拍賣失敗,其中SellerName拍賣賣方的名字與預測拍賣是否成功也沒有關系,因此在訓練時也應將該特征去除

train_data = train_set.drop(['EbayID','QuantitySold','SellerName'],axis = 1) train_target = train_set['QuantitySold'] # Gets the total number of features n_trainSamples, n_features = train_data.shape

這里再解釋一下,為什么要刪除QuantitySold這個特征。因為我們要將樣本數據分成兩部分,一是純的特征數據,二是對應的標簽,上面的train_data就是特征數據,train_target就是特征標簽(是否成功拍賣)

可視化數據,取出一部分數據,兩兩組成對看數據在這個2維平面上的分布情況

# isSold: Auction success is 1, auction failure is 0 df = pd.DataFrame(np.column_stack((train_data, train_target)), columns = list(range(n_features)) + ['isSold']) sns.pairplot(df[:50], vars = [2,3,4,10,13], hue = 'isSold', size = 1.5)

numpy中矩陣列合并有兩個函數,一是hstack(),另一個是這里用到的column_stack,這兩者的區別在于:如果合并的矩陣中有某一個矩陣是稀疏矩陣(有很多0),則最好用column_stack

從第3,9,12,16維特征的散列圖及柱狀圖可看出,這幾個維度并沒有很好的區分度,橫縱坐標的值分別代表不同維度之間的負相關性,為了查看數據特征之間的相關性,及不同特征與類別isSold之間的關系,我們可以利用seaborn中的熱度圖來顯示其倆倆組隊之間的相關性

train = train_set.drop(['EbayID','SellerName'],axis = 1) plt.figure(figsize = (10,10))# The correlation matrix of the data is calculated corr = train.corr()# produce keep out the heat map triangle part of the mask, because the heat the graph is symmetric matrix # so you just output the lower triangular part mask = np.zeros_like(corr, dtype = np.bool) mask[np.triu_indices_from(mask)] = True# Produces the corresponding color change in the heat map cmap = sns.diverging_palette(220, 10, as_cmap = True)# Call the heat in seanborn to create a heat map sns.heatmap(corr, cmap = cmap, mask = mask, vmax = .3,square = True, xticklabels = 5, yticklabels = 2,linewidths = .5, cbar_kws = {'shrink':.5})# Rotate yticks into the horizontal direction for easy viewing plt.yticks(rotation = 0)plt.show()

顏色越偏紅,相關性越大,越偏藍相關性越小且負相關,白色即兩個特征之間沒有多大的關聯,通過第一列可看出,不同維的屬性與類別isSold之間的關系,其中第3,9,12,16維特征與拍賣是否會成功有很強的正相關性,其中3,9,12,16分別對應屬性SellerClosePercent,HitCount,SellerSaleAvgPriceRatio和BestOffer,表示當這些屬性的值越大時越有可能拍賣成功,其中第6維特征StartingBid與成功拍賣isSold之間呈現較大的負相關性,可看出當拍賣投標的底價越高,則這項拍賣的成功性就越低

通過這副熱度圖的第二列我們還可以看出不同特征與價格Price之間的相關性

利用數據預測拍賣是否會成功

由于數據量比較大,且特征維度也不是特別少,因此一開始做baseline時,就不利用SVM支持向量機這些較簡單的模型,因為當數據量比較大,且維度較高時,有些簡單的機器學習算法并不高效,且可能訓練到最后都不收斂

根據scikit-learn提供的機器學習算法使用圖譜

圖譜推薦先使用SGDClassifier,其全稱為Stochastic Gradient Descent 隨機梯度下降,通過梯度下降法在訓練過程中沒有用到所有的訓練樣本,而是隨機從訓練樣本中選取一部分進行訓練,但是SGD對特征值的大小比較敏感,而通過上面的數據預覽,可以知道在我們的數據集里有數值較大的數據,如Category。因此我們需要先使用sklearn.preprocessing提供的StandardScaler對數據進行預處理,使其每個屬性的波動幅度不要太大,有助于訓練時函數收斂

下面是使用sklearn中的SGDClassifier實現拍賣是否成功的模型訓練代碼

from sklearn.linear_model import SGDClassifier from sklearn.preprocessing import StandardScaler# The results of mini_batch learning for SGDClassifier in the training process were drawn def plot_learning(clf,title):plt.figure()# Record the prediction of the last training result in this trainingvalidationScore = []# Record the forecast situation after adding this training resulttrainScore = []# Minimum training frequencymini_batch = 1000for i in range(int(np.ceil(n_trainSamples / mini_batch))):x_batch = train_data[i * mini_batch : min((i + 1) * mini_batch, n_trainSamples)]y_batch = train_target[i * mini_batch: min((i + 1) * mini_batch, n_trainSamples)]if i > 0:validationScore.append(clf.score(x_batch, y_batch))clf.partial_fit(x_batch, y_batch, classes = range(5))if i > 0:trainScore.append(clf.score(x_batch, y_batch))plt.plot(trainScore, label = "train_score")plt.plot(validationScore, label = "validation_score")plt.xlabel("Mini_batch")plt.ylabel("Score")plt.grid()plt.title(title)plt.savefig('test.jpg')# Normalized data scaler = StandardScaler() train_data = scaler.fit_transform(train_data.drop(['EndDay'], axis = 1))# Create SGDClassifier clf = SGDClassifier(penalty = 'l2', alpha = 0.001) plot_learning(clf, 'SGDClassifier')

訓練結果如下圖,由于SGDClassifier是在所有的訓練樣本中抽取一部分作為本次訓練集,因此這里不適用Cross Validation(交叉驗證)

可以看到SGDClassifier的訓練效果還不錯,準確率幾乎達到92%。我們可以繼續使用scikit-learn中封裝的一些降維方法,這里我們使用三種方法進行降維——Random,Projection,PCA和T-SNE embedding

from sklearn import manifold, decomposition, random_projection from matplotlib import offsetbox from time import timeimages = [] images.append([[0., 0., 5., 13., 9., 1., 0., 0.],[0., 0., 13., 15., 10., 15., 5., 0.],[0., 3., 15., 2., 0., 11., 8., 0.],[0., 4., 12., 0., 0., 8., 8., 0.],[0., 5., 8., 0., 0., 9., 8., 0.],[0., 4., 11., 0., 1., 12., 7., 0.],[0., 2., 14., 5., 10., 12., 0., 0.],[0., 0., 6., 13., 10., 0., 0., 0.] ]) images.append([[0., 0., 0., 12., 13., 5., 0., 0.],[0., 0., 0., 11., 16., 9., 0., 0.],[0., 0., 3., 15., 16., 6., 0., 0.],[0., 7., 15., 16., 16., 2., 0., 0.],[0., 0., 1., 16., 16., 3., 0., 0.],[0., 0., 1., 16., 16., 6., 0., 0.],[0., 0., 1., 16., 16., 6., 0., 0.],[0., 0., 0., 11., 16., 10., 0., 0.] ]) # 1000 pieces of data were selected for visual display show_instances = 1000# define the drawing function def plot_embedding(X, title = None):x_min, x_max = np.min(X, 0), np.max(X, 0)X = (X - x_min) / (x_max - x_min)plt.figure()ax = plt.subplot(111)for i in range(X.shape[0]):plt.text(X[i,0], X[i,1], str(train_target[i]),color = plt.cm.Set1(train_target[i] / 2.),fontdict = {'weight':'bold','size':9})if hasattr(offsetbox, 'AnnotationBbox'):shown_images = np.array([[1., 1.]])for i in range(show_instances):dist = np.sum((X[i] - shown_images) ** 2, 1)if np.min(dist) < 4e-3:# don't show points that are too closecontinueshown_images = np.r_[shown_images, [X[i]]]auctionbox = offsetbox.AnnotationBbox(offsetbox.OffsetImage(images[train_target[i]], cmap = plt.cm.gray_r), X[i])ax.add_artist(auctionbox)plt.xticks([]), plt.yticks([])if title is not None:plt.title(title)# Random Projuection start_time = time() rp = random_projection.SparseRandomProjection(n_components = 2,random_state = 50) rp.fit(train_data[:show_instances]) train_projected = rp.transform(train_data[:show_instances]) plot_embedding(train_projected, "Random Projecion of the auction (time: %.3fs)" % (time() - start_time))# PCA start_time = time() train_pca = decomposition.TruncatedSVD(n_components = 2).fit_transform(train_data[:show_instances]) plot_embedding(train_projected, "Pricincipal Components Projection of the auction (time: %.3fs)" % (time() - start_time))# t-sns start_time = time() tsne= manifold.TSNE(n_components = 2, init = 'pca', random_state = 0) train_tsne = tsne.fit_transform(train_data[:show_instances]) plot_embedding(train_projected, "T-SNE embedding of the auction (time: %.3fs)" % (time() - start_time))

隨機投影效果如下圖

PCA降維效果

T-SNE降維效果

從上面三幅圖中,我們可以看出數字0和1的重疊情況,判斷出數據的可區分度并不是特別大,因此我們訓練效果也并沒有特別好

分類訓練結束后,查看分類器在測試集上的效果

from sklearn.metrics import precision_score, recall_score, f1_scoretrain_data = scaler.fit_transform(train_data)train_pred = clf.predict(train_data)print("SGDClassifier training performance on testing dataset:") print("\tPrecision:%1.3f" % precision_score(train_target, train_pred)) print("\tRecall:%1.3f" % recall_score(train_target, train_pred)) print("\tF1:%1.3f \n" % f1_score(train_target, train_pred))

測試效果:

SGDClassifier training performance on testing dataset:Precision:0.875Recall:0.730F1:0.796

預測拍賣最終成交價格

由于價格Price是一個Numerical的值,而拍賣是否成功是一個Category的值,因此兩者做法是不一樣的,預測價格是一個回歸任務,而判斷拍賣是否成功是一個分類任務

同樣根據機器學習算法使用圖譜,這里我們采取SGDRegressor,代碼如下:

from sklearn.linear_model import SGDRegressor import random from sklearn.preprocessing import MinMaxScaler# prepare data test_subset = pd.read_csv('Data/TestSubset.csv') train_subset = pd.read_csv('Data/TrainingSubset.csv')# Training Data train = train_subset.drop(['EbayID','Price','SellerName','EndDay'],axis=1) train_target = train_subset['Price']scaler = MinMaxScaler() train = scaler.fit_transform(train) n_trainSamples, n_features = train.shape# ploting example from scikit-learn def plot_learning(clf,title):plt.figure()validationScore = []trainScore = []mini_batch = 500# define the shuffle indexidx = list(range(n_trainSamples))random.shuffle(idx)for i in range(int(np.ceil(n_trainSamples / mini_batch))):x_batch = train[idx[i * mini_batch: min((i + 1) * mini_batch, n_trainSamples)]]y_batch = train_target[idx[i * mini_batch: min((i + 1) * mini_batch, n_trainSamples)]]if i > 0:validationScore.append(clf.score(x_batch, y_batch))clf.partial_fit(x_batch, y_batch)if i > 0:trainScore.append(clf.score(x_batch, y_batch))plt.plot(trainScore, label="train score")plt.plot(validationScore, label="validation socre")plt.xlabel("Mini_batch")plt.ylabel("Score")plt.legend(loc='best')plt.title(title)sgd_regresor = SGDRegressor(penalty='l2',alpha=0.001) plot_learning(sgd_regresor,"SGDRegressor")# 準備測試集查看測試情況 test = test_subset.drop(['EbayID','Price','SellerName','EndDay'],axis=1) test = scaler.fit_transform(test) test_target = test_subset['Price']print("SGD regressor prediction result on testing data: %.3f" % sgd_regresor.score(test,test_target))plt.show()

在測試集上的測試結果:SGD regressor prediction result on testing data: 0.936,由于SGDRegressor回歸效果不錯,因此就不太需要進一步選擇其他的模型進行嘗試了

總結

本篇文章大概講解了如何使用scikit-learn進行數據分析,其實在數據分析過程中,運用到機器學習的算法進行模型訓練并不是最重要的,大量的時間花費在數據的預處理上,我不止一次聽到很多機器學習大牛說過一句話數據分析,最重要的不是算法,是數據。關于更多scikit-learn的機器學習算法,可以查看官方文檔,上面有很多例子,可以幫助大家快速入門

備注:公眾號菜單包含了整理了一本AI小抄非常適合在通勤路上用學習

往期精彩回顧適合初學者入門人工智能的路線及資料下載機器學習在線手冊深度學習在線手冊AI基礎下載(第一部分)備注:加入本站微信群或者qq群,請回復“加群”獲取一折本站知識星球優惠券,請回復“知識星球”

喜歡文章,點個在看

總結

以上是生活随笔為你收集整理的机器学习案例:scikit-learn实现ebay数据分析的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。