特征分解与奇异值分解
特征分解
特征分解是針對方陣的,奇異值分解是應用于矩陣的。
方陣AAA的特征向量是指與AAA相乘后相當于對原向量進行縮放的非0向量vvv:
Av=λvAv = \lambda v Av=λv
標量λ\lambdaλ稱為這個特征向量對應的特征值。
每個實對稱矩陣都可以分解成實特征向量和實特征值:
A=QΛQTA = Q\Lambda Q^T A=QΛQT
其中QQQ是AAA的特征向量組成的正交矩陣,Λ\LambdaΛ是對角矩陣。
所有特征值都是正數的矩陣被稱為正定,所有特征值都是非負數的矩陣稱為半正定。同理得負定及半負定。
奇異值分解
奇異值分解有更廣泛的應用,每個實數矩陣都有一個奇異值分解,但不一定有特征值分解。例如非方陣的矩陣沒有特征值分解,我們只能使用奇異值分解。
奇異值分解是將矩陣AAA分解成3個矩陣的乘積:
A=UDVTA = UDV^T A=UDVT
假設AAA是一個m×nm\times nm×n的矩陣,那么UUU是一個m×mm \times mm×m的矩陣,D是一個m×nm\times nm×n的矩陣,VVV是一個n×nn \times nn×n的矩陣。
這些矩陣每一個都有特殊的結構。矩陣UUU和VVV都是正交矩陣,矩陣DDD是對角矩陣(不一定是方陣)。
對角矩陣DDD對角線上的元素被稱為矩陣AAA的奇異值,矩陣UUU和VVV分別被稱為AAA的左奇異向量和右奇異向量。
SVD最有用的一個性質可能是拓展矩陣求逆到非方陣上。
創作挑戰賽新人創作獎勵來咯,堅持創作打卡瓜分現金大獎總結
以上是生活随笔為你收集整理的特征分解与奇异值分解的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 向量的范数
- 下一篇: 最大似然估计与损失函数