PCA算法之特征值分解
生活随笔
收集整理的這篇文章主要介紹了
PCA算法之特征值分解
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
奇異值分解和特征值分解都是對矩陣進行分解的不同方法,所謂分解,即使將原矩陣拆分成另一種表達方式,且新的表達方式比原矩陣更簡單,更具有實際意義。奇異值分解對象可以使任意n*m維的矩陣,而特征值分解只能針對n*n的方陣,特征值分解從某種意義上來說可以算是奇異值分解的一種特殊情況,所以下面先對特征值分解進行一個描述。
?
對角陣:
其實這種矩陣有特殊性,比如除了其主對角線元素外的所有元素都是0,這種矩陣我們稱之為對角陣。計算方便。
?
一個矩陣是否能相似對角化是有條件的,即能夠找到這樣一組基,使得該矩陣對應的線性變換對于該組基上的每個向量都是一個縮放動作。
?
相似對角陣:
一個矩陣可以看成一個線性變換。它的特征向量代表縮放的方向,特征值代表縮放的大小。
特征向量也可以表一組基,表示為坐標系b。設有兩個坐標系,a是二維正交坐標系,基為??,有一個向量在A中是。則在B中可以表示為。 按照A矩陣的進行運動, 在各個基上分別伸縮其對應特征值的大小,再乘以,既將坐標回到a坐標系。
?
最后看一下這個特征分解的形式,中間的對角陣其實告訴了我們這個線性變換的變換程度,而兩邊對應的基變換矩陣中的特征向量告訴了我們線性變換的變換角度等性質。這樣一個比較復雜的矩陣變換通過特征分解,就能得到很好的解釋。這也是PCA中能夠使用該方法的原因之一。
總結
以上是生活随笔為你收集整理的PCA算法之特征值分解的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: U盘重装win10出现的异常情况
- 下一篇: 递归构建树状结构