日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程语言 > python >内容正文

python

因子分解机 Factorization Machine python 源码

發(fā)布時間:2025/4/5 python 15 豆豆
生活随笔 收集整理的這篇文章主要介紹了 因子分解机 Factorization Machine python 源码 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.



先上代碼

# coding:UTF-8from __future__ import division from math import exp from numpy import * from random import normalvariate # 正態(tài)分布 from datetime import datetime import pandas as pd import numpy as np from math import log10 trainData = 'data/diabetes_train.txt' #請換為自己文件的路徑 testData = 'data/diabetes_test.txt'def preprocessData(data):feature=np.array(data.iloc[:,:-1]) #取特征label=data.iloc[:,-1].map(lambda x: 1 if x==1 else -1) #取標(biāo)簽并轉(zhuǎn)化為 +1,-1#將數(shù)組按行進(jìn)行歸一化zmax, zmin = feature.max(axis=0), feature.min(axis=0)feature = (feature - zmin) / (zmax - zmin)label=np.array(label)return feature,labeldef sigmoid(inx):#return 1. / (1. + exp(-max(min(inx, 15.), -15.)))return 1.0 / (1 + exp(-inx))def SGD_FM(dataMatrix, classLabels, k, iter):''':param dataMatrix: 特征矩陣:param classLabels: 類別矩陣:param k: 輔助向量的大小:param iter: 迭代次數(shù):return:'''# dataMatrix用的是mat, classLabels是列表m, n = shape(dataMatrix) #矩陣的行列數(shù),即樣本數(shù)和特征數(shù)alpha = 0.01# 初始化參數(shù)# w = random.randn(n, 1)#其中n是特征的個數(shù)w = zeros((n, 1)) #一階特征的系數(shù)w_0 = 0.v = normalvariate(0, 0.2) * ones((n, k)) #即生成輔助向量,用來訓(xùn)練二階交叉特征的系數(shù)for it in range(iter):for x in range(m): # 隨機優(yōu)化,每次只使用一個樣本xx0=dataMatrix[x]xx=np.array(xx0)xx1=xx.T@xxvv=v@v.Te=xx1*vvinteraction=0.5*(e.sum()-e.trace())p = w_0 + xx@w + interactionloss = (1-sigmoid(classLabels[x] * p[0, 0]) ) #計算損失w_0 = w_0 +alpha * loss * classLabels[x]for i in range(n):if dataMatrix[x, i] != 0:w[i, 0] = w[i, 0] +alpha * loss * classLabels[x] * xx[0,i]#dataMatrix[x, i]for j in range(k):vv=np.array([v[:,j]])v[i, j] = v[i, j]+ alpha * loss * classLabels[x] * xx[0,i]*( xx@vv.T - v[i, j] * xx[0,i])print("第{}次迭代后的損失為{}".format(it, loss))return w_0, w, vdef getAccuracy(dataMatrix, classLabels, w_0, w, v):m, n = shape(dataMatrix)allItem = 0error = 0result = []for x in range(m): #計算每一個樣本的誤差allItem += 1xx0=dataMatrix[x]xx=np.array(xx0)xx1=xx.T@xxvv=v@v.Te=xx1*vvinteraction=0.5*(e.sum()-e.trace())p = w_0 + xx@w + interactionpre = sigmoid(p[0, 0])result.append(pre)if pre < 0.5 and classLabels[x] == 1.0:error += 1elif pre >= 0.5 and classLabels[x] == -1.0:error += 1else:continuereturn float(error) / allItemif __name__ == '__main__':train=pd.read_csv(trainData)test = pd.read_csv(testData)dataTrain, labelTrain = preprocessData(train)dataTest, labelTest = preprocessData(test)date_startTrain = datetime.now()print ("開始訓(xùn)練")w_0, w, v = SGD_FM(mat(dataTrain), labelTrain, 20, 30)print("訓(xùn)練準(zhǔn)確性為:%f" % (1 - getAccuracy(mat(dataTrain), labelTrain, w_0, w, v)))date_endTrain = datetime.now()print("訓(xùn)練用時為:%s" % (date_endTrain - date_startTrain))print("開始測試")print("測試準(zhǔn)確性為:%f" % (1 - getAccuracy(mat(dataTest), labelTest, w_0, w, v)))

從本質(zhì)上講,fm就是一個機器學(xué)習(xí)算法;
一種有監(jiān)督學(xué)習(xí)算法;
一種和多元線性回歸非常相似的算法;
就是一種算法而已;
但是這種算法在輸入是稀疏矩陣的情況下,效果比LR,SVM,要好,
原因是他考慮了不同特征的相關(guān)性;
個性化推薦的場景下,輸入的是一個很大的稀疏矩陣;
所以這種算法在推薦場景應(yīng)用的比較多

代碼在git

文章鏈接

1
2
3
4
5代碼加數(shù)學(xué)推導(dǎo)

總結(jié)

以上是生活随笔為你收集整理的因子分解机 Factorization Machine python 源码的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。