日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

【Python-ML】非线性映射降维-KPCA方法-新样本映射

發布時間:2025/4/16 python 27 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【Python-ML】非线性映射降维-KPCA方法-新样本映射 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
# -*- coding: utf-8 -*- ''' Created on 2018年1月18日 @author: Jason.F @summary: 特征抽取-KPCA方法,核主成分分析方法,RBF核實現,增加新樣本映射功能KPCA基于內存,每次映射新樣本,需要計算訓練數據集中每一個樣本和新樣本之間的相似度(點積) ''' import pandas as pd import numpy as np import matplotlib.pyplot as plt from scipy.spatial.distance import pdist,squareform from scipy import exp from scipy.linalg import eigh from sklearn.datasets import make_moons from sklearn.datasets import make_circles from sklearn.decomposition import PCA from matplotlib.ticker import FormatStrFormatter from sklearn.gaussian_process.gpc import LAMBDAS def rbf_kernel_pca(X,gama,n_components):'''RBF kernel PCA implementation.Parameters:X:{Numpy ndarray},shape=[n_samples,n_features]gama:float,Tuning parameter of the RBF kerneln_components:int,Number of principal components to returnReturns:X_pc:{Numpy ndarray},shape=[n_samples,n_features],Projected datasetlambdas:list,Eigenvalues'''#1:計算樣本對歐幾里得距離,并生成核矩陣#k(x,y)=exp(-gama *||x-y||^2),x和y表示樣本,構建一個NXN的核矩陣,矩陣值是樣本間的歐氏距離值。#1.1:calculate pairwise squared Euclidean distances in the MXN dimensional dataset.sq_dists = pdist (X, 'sqeuclidean') #計算兩兩樣本間歐幾里得距離#1.2:convert pairwise distances into a square matrix.mat_sq_dists=squareform(sq_dists) #距離平方#1.3:compute the symmetric kernel matrix.K=exp(-gama * mat_sq_dists) #2:聚集核矩陣K'=K-L*K-K*L + L*K*L,其中L是一個nXn的矩陣(和核矩陣K的維數相同,所有的值都是1/n。#聚集核矩陣的必要性是:樣本經過標準化處理后,當在生成協方差矩陣并以非線性特征的組合替代點積時,所有特征的均值為0;但用低維點積計算時并沒有精確計算新的高維特征空間,也無法確定新特征空間的中心在零點。#center the kernel matrix.N=K.shape[0]one_n = np.ones((N,N))/N #NXN單位矩陣K=K - one_n.dot(K) - K.dot(one_n) + one_n.dot(K).dot(one_n)#3:對聚集后的核矩陣求取特征值和特征向量#obtaining eigenpairs from the centered kernel matrix#numpy.eigh returns them in sorted order.eigvals,eigvecs = eigh(K)#4:選擇前k個特征值所對應的特征向量,和PCA不同,KPCA得到的K個特征,不是主成分軸,而是高維映射到低維后的低維特征數量#核化過程是低維映射到高維,pca是降維,經過核化后的維度已經不是原來的特征空間。#核化是低維映射到高維,但并不是在高維空間計算(非線性特征組合)而是在低維空間計算(點積),做到這點關鍵是核函數,核函數通過兩個向量點積來度量向量間相似度,能在低維空間內近似計算出高維空間的非線性特征空間。#collect the top k eigenvectors (projected samples).X_pc = np.column_stack((eigvecs[:,-i] for i in range(1,n_components+1)))#collect the corresponding eigenvalues#保存特征值用于新樣本映射lambdas = [eigvals[-i] for i in range(1,n_components+1)]return X_pc,lambdas#映射新樣本,新樣本和訓練集中所有樣本計算相似度,并生成新核矩陣 def project_x(x_new,X,gamma,X_kpca,lambdas):pair_dist = np.array([np.sum((x_new-row)**2) for row in X])k=np.exp(-gamma * pair_dist)return k.dot(X_kpca/lambdas) #新核矩陣映射的低維空間返回值#生成半月形數據,并映射到低維空間 X,y=make_moons(n_samples=100,random_state=123) X_kpca,lambdas= rbf_kernel_pca (X,gama=15,n_components=1)#使用rbf+pca將樣本映射到一維的子空間上 #新樣本映射 x_new=X[25]#取數據集中的低26個樣本作為新樣本 print (x_new) x_proj= X_kpca[25] #在訓練集中映射的值 print (x_proj) x_reproj=project_x(x_new,X,gamma=15,X_kpca=X_kpca,lambdas=lambdas)#新樣本加入后映射的值 print (x_reproj) #可視化效果 plt.scatter(X_kpca[y==0,0],np.zeros((50)),color='red',marker='^',alpha=0.5) plt.scatter(X_kpca[y==1,0],np.zeros((50)),color='blue',marker='o',alpha=0.5) plt.scatter(x_proj,0,color='black',label='original projection of point X[25]',marker='^',s=100) plt.scatter(x_reproj,0,color='green',label='remapped point X[25]',marker='x',s=500) plt.legend(scatterpoints=1) plt.show()

結果:


總結

以上是生活随笔為你收集整理的【Python-ML】非线性映射降维-KPCA方法-新样本映射的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。