如何理解矩阵特征值?
——————————————————以下為正文——————————————————
從線性空間的角度看,在一個定義了內(nèi)積的線性空間里,對一個N階對稱方陣進行特征分解,就是產(chǎn)生了該空間的N個標準正交基,然后把矩陣投影到這N個基上。N個特征向量就是N個標準正交基,而特征值的模則代表矩陣在每個基上的投影長度。
特征值越大,說明矩陣在對應(yīng)的特征向量上的方差越大,功率越大,信息量越多。
應(yīng)用到最優(yōu)化中,意思就是對于R的二次型,自變量在這個方向上變化的時候,對函數(shù)值的影響最大,也就是該方向上的方向?qū)?shù)最大。
應(yīng)用到數(shù)據(jù)挖掘中,意思就是最大特征值對應(yīng)的特征向量方向上包含最多的信息量,如果某幾個特征值很小,說明這幾個方向信息量很小,可以用來降維,也就是刪除小特征值對應(yīng)方向的數(shù)據(jù),只保留大特征值方向?qū)?yīng)的數(shù)據(jù),這樣做以后數(shù)據(jù)量減小,但有用信息量變化不大。
——————————————————舉兩個栗子——————————————————
應(yīng)用1 二次型最優(yōu)化問題
二次型,其中R是已知的二階矩陣,R=[1,0.5;0.5,1],x是二維列向量,x=[x1;x2],求y的最小值。
求解很簡單,講一下這個問題與特征值的關(guān)系。
對R特征分解,特征向量是[-0.7071;0.7071]和[0.7071;0.7071],對應(yīng)的特征值分別是0.5和1.5。
然后把y的等高線圖畫一下
從圖中看,函數(shù)值變化最快的方向,也就是曲面最陡峭的方向,歸一化以后是[0.7071;0.7071],嗯哼,這恰好是矩陣R的一個特征值,而且它對應(yīng)的特征向量是最大的。因為這個問題是二階的,只有兩個特征向量,所以另一個特征向量方向就是曲面最平滑的方向。這一點在分析最優(yōu)化算法收斂性能的時候需要用到。
二階問題比較直觀,當R階數(shù)升高時,也是一樣的道理。
應(yīng)用2 數(shù)據(jù)降維
興趣不大的可以跳過問題,直接看后面降維方法。
機器學習中的分類問題,給出178個葡萄酒樣本,每個樣本含有13個參數(shù),比如酒精度、酸度、鎂含量等,這些樣本屬于3個不同種類的葡萄酒。任務(wù)是提取3種葡萄酒的特征,以便下一次給出一個新的葡萄酒樣本的時候,能根據(jù)已有數(shù)據(jù)判斷出新樣本是哪一種葡萄酒。
問題詳細描述:UCI Machine Learning Repository: Wine Data Set
訓練樣本數(shù)據(jù):http://archive.ics.uci.edu/ml/machine-learning-databases/wine/wine.data
原數(shù)據(jù)有13維,但這之中含有冗余,減少數(shù)據(jù)量最直接的方法就是降維。
做法:把數(shù)據(jù)集賦給一個178行13列的矩陣R,它的協(xié)方差矩陣,C是13行13列的矩陣,對C進行特征分解,對角化,其中U是特征向量組成的矩陣,D是特征之組成的對角矩陣,并按由大到小排列。然后,另,就實現(xiàn)了數(shù)據(jù)集在特征向量這組正交基上的投影。嗯,重點來了,R’中的數(shù)據(jù)列是按照對應(yīng)特征值的大小排列的,后面的列對應(yīng)小特征值,去掉以后對整個數(shù)據(jù)集的影響比較小。比如,現(xiàn)在我們直接去掉后面的7列,只保留前6列,就完成了降維。這個降維方法叫PCA(Principal Component Analysis)。
下面看結(jié)果:
這是不降維時候的分類錯誤率。
這是降維以后的分類錯誤率。
結(jié)論:降維以后分類錯誤率與不降維的方法相差無幾,但需要處理的數(shù)據(jù)量減小了一半(不降維需要處理13維,降維后只需要處理6維)。 編輯于 2013-10-31?90 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???禁止轉(zhuǎn)載 81贊同 反對,不會顯示你的姓名 未知?,EE狗一條…… 知乎用戶、Jerry Zhang、張序?等人贊同
特征值不僅僅是數(shù)學上的一個定義或是工具,特征值是有具體含義的,是完全看得見摸得著的。
1. 比如說一個三維矩陣,理解成線性變換,作用在一個球體上:
三個特征值決定了 對球體在三個維度上的拉伸/壓縮,把球體塑造成一個橄欖球;
剩下的部分決定了這個橄欖球在三維空間里面怎么旋轉(zhuǎn)。
2. 對于一個微分方程:
將系數(shù)提取出來
對角化:
其中
由于
定義
于是有
因此y的變化率與特征值息息相關(guān):
再將y由Q變換回x,我們就能得出x在不同時間的值。x的增長速度就是特征值λ,Q用來把x旋轉(zhuǎn)成y。
發(fā)布于 2013-10-25?12 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權(quán)利 48贊同 反對,不會顯示你的姓名 Duanex?,電氣工程,科幻迷 張序、徐小飛、polehui?等人贊同 前面的回答比較專業(yè)化,而且好像沒說特征值是虛數(shù)的情況,并不是只有特征向量的伸縮。作為工科線代水平,我說下自己的理解。矩陣特征值是對特征向量進行伸縮和旋轉(zhuǎn)程度的度量,實數(shù)是只進行伸縮,虛數(shù)是只進行旋轉(zhuǎn),復數(shù)就是有伸縮有旋轉(zhuǎn)。其實最重要的是特征向量,從它的定義可以看出來,特征向量是在矩陣變換下只進行“規(guī)則”變換的向量,這個“規(guī)則”就是特征值。推薦教材linear algebra and its application 編輯于 2014-05-23?16 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權(quán)利 21贊同 反對,不會顯示你的姓名 燕南?,物理學博士、愛好應(yīng)用數(shù)學、讀過一些純數(shù)… 呵呵清清清、知乎用戶、AttufliX?等人贊同 特徵向量反映了線性變換的方向,在這幾個方向上線性變換只導致伸縮,沒有旋轉(zhuǎn);特徵值反映線性變換在這幾個方向上導致的伸縮的大小。 編輯于 2014-05-04?1 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權(quán)利 49贊同 反對,不會顯示你的姓名 阿貍 crystal·jiang、Tavion Fu、張序?等人贊同
-----------------------------------------
詳細信息參看《神奇的矩陣》
----這是打廣告的分割線---------
想要理解特征值,首先要理解矩陣相似。什么是矩陣相似呢?從定義角度就是:存在可逆矩陣P滿足B=則我們說A和B是相似的。讓我們來回顧一下之前得出的重要結(jié)論:對于同一個線性空間,可以用兩組不同的基和基來描述,他們之間的過渡關(guān)系是這樣的:,而對應(yīng)坐標之間的過渡關(guān)系是這樣的:。其中P是可逆矩陣,可逆的意義是我們能變換過去也要能變換回來,這一點很重要。我們知道,對于一個線性變換,只要你選定一組基,那么就可以用一個矩陣T1來描述這個線性變換。換一組基,就得到另一個不同的矩陣T2(之所以會不同,是因為選定了不同的基,也就是選定了不同的坐標系)。所有這些矩陣都是這同一個線性變換的描述,但又都不是線性變換本身。具體來說,有一個線性變換,我們選擇基來描述,對應(yīng)矩陣是T1;同樣的道理,我們選擇基來描述,,對應(yīng)矩陣是T2;我們知道基和基是有聯(lián)系的,那么他們之間的變換T1和T2有沒有聯(lián)系呢?
當然有,T1和T2就是相似的關(guān)系,具體的請看下圖:
沒錯,所謂相似矩陣,就是同一個線性變換的不同基的描述矩陣。這就是相似變換的幾何意義。
這個發(fā)現(xiàn)太重要了。原來一族相似矩陣都是同一個線性變換的描述啊!難怪這么重要!工科研究生課程中有矩陣論、矩陣分析等課程,其中講了各種各樣的相似變換,比如什么相似標準型,對角化之類的內(nèi)容,都要求變換以后得到的那個矩陣與先前的那個矩陣式相似的,為什么這么要求?因為只有這樣要求,才能保證變換前后的兩個矩陣是描述同一個線性變換的。就像信號處理(積分變換)中將信號(函數(shù))進行拉氏變換,在復數(shù)域處理完了之后又進行拉式反變換,回到實數(shù)域一樣。信號處理中是主要是為了將復雜的卷積運算變成乘法運算。其實這樣的變換還有好多,有興趣可以看積分變換的教材。
為什么這樣做呢?矩陣的相似變換可以把一個比較丑的矩陣變成一個比較美的矩陣,而保證這兩個矩陣都是描述了同一個線性變換。至于什么樣的矩陣是“美”的,什么樣的是“丑”的,我們說對角陣是美的。在線性代數(shù)中,我們會看到,如果把復雜的矩陣變換成對角矩陣,作用完了之后再變換回來,這種轉(zhuǎn)換很有用處,比如求解矩陣的n次冪!而學了矩陣論之后你會發(fā)現(xiàn),矩陣的n次冪是工程中非常常見的運算。這里順便說一句,將矩陣對角化在控制工程和機械振動領(lǐng)域具有將復雜方程解耦的妙用!總而言之,相似變換是為了簡化計算!
從另一個角度理解矩陣就是:矩陣主對角線上的元素表示自身和自身的關(guān)系,其他位置的元素aij表示i位置和j位置元素之間的相互關(guān)系。那么好,特征值問題其實就是選取了一組很好的基,就把矩陣 i位置和j位置元素之間的相互關(guān)系消除了。而且因為是相似變換,并沒有改變矩陣本身的特性。因此矩陣對角化才如此的重要!
特征向量的引入是為了選取一組很好的基。空間中因為有了矩陣,才有了坐標的優(yōu)劣。對角化的過程,實質(zhì)上就是找特征向量的過程。如果一個矩陣在復數(shù)域不能對角化,我們還有辦法把它化成比較優(yōu)美的形式——Jordan標準型。高等代數(shù)理論已經(jīng)證明:一個方陣在復數(shù)域一定可以化成Jordan標準型。這一點有興趣的同學可以看一下高等代數(shù)后或者矩陣論。
特征值英文名eigen value?!疤卣鳌币辉~譯自德語的eigen,由希爾伯特在1904年首先在這個意義下使用(赫爾曼·馮·亥姆霍茲在更早的時候也在類似意義下使用過這一概念)。eigen一詞可翻譯為“自身的”,“特定于...的”,“有特征的”或者“個體的”—這強調(diào)了特征值對于定義特定的變換上是很重要的。它還有好多名字,比如譜,本征值。為什么會有這么多名字呢?
原因就在于他們應(yīng)用的領(lǐng)域不同,中國人為了區(qū)分,給特不同的名字。你看英文文獻就會發(fā)現(xiàn),他們的名字都是同一個。當然,特征值的思想不僅僅局限于線性代數(shù),它還延伸到其他領(lǐng)域。在數(shù)學物理方程的研究領(lǐng)域,我們就把特征值稱為本征值。如在求解薛定諤波動方程時,在波函數(shù)滿足單值、有限、連續(xù)性和歸一化條件下,勢場中運動粒子的總能量(正)所必須取的特定值,這些值就是正的本征值。
前面我們討論特征值問題面對的都是有限維度的特征向量,下面我們來看看特征值對應(yīng)的特征向量都是無限維函數(shù)的例子。這時候的特征向量我們稱為特征函數(shù),或者本證函數(shù)。這還要從你熟悉的微分方程說起。方程本質(zhì)是一種約束,微分方程就是在世界上各種各樣的函數(shù)中,約束出一類函數(shù)。對于一階微分方程
我們發(fā)現(xiàn)如果我將變量y用括號[]包圍起來,微分運算的結(jié)構(gòu)和線性代數(shù)中特征值特征向量的結(jié)構(gòu),即和竟是如此相似。這就是一個求解特征向量的問題啊!只不過“特征向量”變成函數(shù)!我們知道只有滿足這個式子。這里出現(xiàn)了神奇的數(shù)e,一杯開水放在室內(nèi),它溫度的下降是指數(shù)形式的;聽說過放射性元素的原子核發(fā)生衰變么?隨著放射的不斷進行,放射強度將按指數(shù)曲線下降;化學反應(yīng)的進程也可以用指數(shù)函數(shù)描述……類似的現(xiàn)象還有好多。
為什么選擇指數(shù)函數(shù)而不選擇其他函數(shù),因為指數(shù)函數(shù)是特征函數(shù)。為什么指數(shù)函數(shù)是特征?我們從線性代數(shù)的特征向量的角度來解釋。這已經(jīng)很明顯了就是“特征向量”。于是,很自然的將線性代數(shù)的理論應(yīng)用到線性微分方程中。那么指數(shù)函數(shù)就是微分方程(實際物理系統(tǒng))的特征向量。用特征向量作為基表示的矩陣最為簡潔。就像你把一個方陣經(jīng)過相似對角化變換,耦合的矩陣就變成不耦合的對角陣一樣。在機械振動里面所說的模態(tài)空間也是同樣的道理。如果你恰巧學過振動分析一類的課程,也可以來和我交流。
同理,用特征函數(shù)解的方程也是最簡潔的,不信你用級數(shù)的方法解方程,你會發(fā)現(xiàn)方程的解有無窮多項。解一些其他方程的時候(比如貝塞爾方程)我們目前沒有找到特征函數(shù),于是退而求其次才選擇級數(shù)求解,至少級數(shù)具有完備性。實數(shù)的特征值代表能量的耗散或者擴散,比如空間中熱量的傳導、化學反應(yīng)的擴散、放射性元素的衰變等。虛數(shù)的特征值(對應(yīng)三角函數(shù))代表能量的無損耗交換,比如空間中的電磁波傳遞、振動信號的動能勢能等。復數(shù)的特征值代表既有交換又有耗散的過程,實際過程一般都是這樣的。復特征值在電路領(lǐng)域以及振動領(lǐng)域?qū)l(fā)揮重要的作用,可以說,沒有復數(shù),就沒有現(xiàn)代的電氣化時代!
對于二階微分方程方程,它的解都是指數(shù)形式或者復指數(shù)形式。可以通過歐拉公式將其寫成三角函數(shù)的形式。復特征值體現(xiàn)最多的地方是在二階系統(tǒng),別小看這個方程,整本自動控制原理都在講它,整個振動分析課程也在講它、還有好多課程的基礎(chǔ)都是以這個微分方程為基礎(chǔ),這里我就不詳細說了,有興趣可以學習先關(guān)課程。說了這么多只是想向你傳達一個思想,就是復指數(shù)函數(shù)式系統(tǒng)的特征向量!
如果將二階微分方程轉(zhuǎn)化成狀態(tài)空間的形式(具體轉(zhuǎn)化方法見現(xiàn)代控制理論,很簡單的)
。則一個二階線性微分方程就變成一個微分方程組的形式這時就出現(xiàn)了矩陣A,矩陣可以用來描述一個系統(tǒng):如果是振動問題,矩陣A的特征值是虛數(shù),對應(yīng)系統(tǒng)的固有頻率,也就是我們常說的,特征值代表振動的譜。如果含有耗散過程,特征值是負實數(shù),對應(yīng)指數(shù)衰減;特征值是正實數(shù),對應(yīng)指數(shù)發(fā)散過程,這時是不穩(wěn)定的,說明系統(tǒng)極容易崩潰,如何抑制這種發(fā)散就是控制科學研究的內(nèi)容。
提到振動的譜,突然想到了這個經(jīng)典的例子:美國數(shù)學家斯特讓(G..Strang)在其經(jīng)典教材《線性代數(shù)及其應(yīng)用》中這樣介紹了特征值作為頻率的物理意義,他說:"大概最簡單的例子(我從不相信其真實性,雖然據(jù)說1831年有一橋梁毀于此因)是一對士兵通過橋梁的例子。傳統(tǒng)上,他們要停止齊步前進而要散步通過。這個理由是因為他們可能以等于橋的特征值之一的頻率齊步行進,從而將發(fā)生共振。就像孩子的秋千那樣,你一旦注意到一個秋千的頻率,和此頻率相配,你就使頻率蕩得更高。一個工程師總是試圖使他的橋梁或他的火箭的自然頻率遠離風的頻率或液體燃料的頻率;而在另一種極端情況,一個證券經(jīng)紀人則盡畢生精力于努力到達市場的自然頻率線。特征值是幾乎任何一個動力系統(tǒng)的最重要的特征。"
對于一個線性系統(tǒng),總可以把高階的方程轉(zhuǎn)化成一個方程組描述,這被稱為狀態(tài)空間描述。因此,他們之間是等價的。特征值還有好多用處,原因不在特征值本身,而在于特征值問題和你的物理現(xiàn)象有著某種一致的對應(yīng)關(guān)系。學習特征值問題告訴你一種解決問題的方法:尋找事物的特征,然后特征分解。
編輯于 2016-02-08?13 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權(quán)利 173贊同 反對,不會顯示你的姓名 鄭梓豪?,CS224d 學習中... 張序、啦啦、知乎用戶?等人贊同???收錄于?編輯推薦 各位知友在點贊同之前請看一下評論區(qū)。這個例子有待討論。-----------
我舉一個直觀一點的例子吧...我也喜歡數(shù)學的直觀之美。
我們知道,一張圖像的像素(如:320 x 320)到了計算機里面事實上就是320x320的矩陣,每一個元素都代表這個像素點的顏色..
如果我們把基于特征值的應(yīng)用,如PCA、向量奇異值分解SVD這種東西放到圖像處理上,大概就可以提供一個看得到的、直觀的感受。關(guān)于SVD的文章可以參考LeftNotEasy的文章:機器學習中的數(shù)學(5)-強大的矩陣奇異值分解(SVD)及其應(yīng)用
簡單的說,SVD的效果就是..用一個規(guī)模更小的矩陣去近似原矩陣...
這里A就是代表圖像的原矩陣..其中的尤其值得關(guān)注,它是由A的特征值從大到小放到對角線上的..也就是說,我們可以選擇其中的某些具有“代表性”的特征值去近似原矩陣!
左邊的是原始圖片
當我把特征值的數(shù)量減少幾個的時候...后面的圖像變“模糊”了..
同樣地...
關(guān)鍵的地方來了!如果我們只看到這里的模糊..而沒有看到計算機(或者說數(shù)學)對于人臉的描述,那就太可惜了...我們看到,不論如何模糊,臉部的關(guān)鍵部位(我們?nèi)祟愓J為的關(guān)鍵部位)——五官并沒有變化太多...這能否說:數(shù)學揭示了世界的奧秘? 編輯于 2014-05-05?30 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權(quán)利 31贊同 反對,不會顯示你的姓名 黃培浩?,程序員 董笙、啊啊鳥人啊啊、蔣淡寧?等人贊同 作為一個線性代數(shù)考60+的學渣,我是這么直觀地理解的:
?把式子中的看作一個線性變換,那么這個定義式就表示對于 向量而言,經(jīng)過變換之后該向量的方向沒有變化(可能會反向),而只是長度變化了(乘以?)。
也就是對于變換來說,存在一些“不變”的量(比如特征向量的方向),我想,“特征”的含義就是“不變”。
而特征值,如你所見,就是變換??在特征方向上的伸展系數(shù)吧(亂諏了個名詞 :P)。
嗯,覺得維基其實講的就挺好的:https://zh.wikipedia.org/wiki/%E7%89%B9%E5%BE%81%E5%90%91%E9%87%8F 編輯于 2014-03-30?3 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權(quán)利 22贊同 反對,不會顯示你的姓名 江磊?,大眾點評碼農(nóng) 陳茜、Xenophon Tony、劉嘉禾?等人贊同 站在線性變換的角度來看矩陣的話。
矩陣(線性變換)作用在一個向量上無非是將該向量伸縮(包括反向伸縮)與旋轉(zhuǎn)。
忽略復雜的旋轉(zhuǎn)變換,只考慮各個方向(特征方向)伸縮的比例,所提取出的最有用,最關(guān)鍵的信息就是特征值了。 編輯于 2013-10-24?8 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權(quán)利 32贊同 反對,不會顯示你的姓名 Gilbert?,you know nothing deyi wang、張榮真、yaoxinliu?等人贊同 定義很抽象我也一直搞不懂,但是最近開始在圖像處理方面具體應(yīng)用的時候就清晰很多了,用學渣的語言溝通一下吧我們。
拋開學術(shù)研究不談,其實根本不會,特征值eigenvalue和特征向量eigenvector的一大應(yīng)用是用于大量數(shù)據(jù)的降維
比如拿淘寶舉個例子,每個淘寶店鋪有N個統(tǒng)計數(shù)據(jù):商品類型,日銷量周銷量月銷量、好評率中評差評率……全淘寶有M家店鋪,那么服務(wù)器需要記錄的數(shù)據(jù)就是M*N的矩陣;
這是一個很大的數(shù)據(jù),實際上我們可以通過求這個矩陣的特征向量和對應(yīng)的特征值來重新表示這個M*N的矩陣:
我們可以用周銷量來誤差不大的表示日銷量和月銷量(除以七和乘以四),這個時候周銷量就可以當作一個特征向量,它能夠表示每個店鋪銷量這個空間方向的主要能量(也就是數(shù)據(jù)),這樣我們就簡略的把一個35維的向量簡化成四維的(30個日銷量加4個周銷量加1個月銷量);
同理我們也可以把好評率中評率差評率用一個好評率來表示(剩余的百分比默認為差評率),這樣的降維大致上也能反映一個店鋪的誠信度;
這樣通過不斷的降維我們可以提取到某系列數(shù)據(jù)最主要的幾個特征向量(對應(yīng)特征值最大的),這些向量反映了這個矩陣空間最主要的能量分布,所以我們可以用這幾個特征向量來表示整個空間,實現(xiàn)空間的降維。
這個方法叫做Principle Components Analysis,有興趣的同學可以wiki一下。
學渣飄過了 編輯于 2015-10-23?12 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權(quán)利 1贊同 反對,不會顯示你的姓名 董豪晨?,做更好的算法 黃蒼杰?贊同 看了大部分的回答,基本都沒有回答出為什么要求特征值。
特征值和特征向量是為了研究矩陣仿射變換的不變性而提出的,一個空間里的元素通過線性變換到另一個相同維數(shù)的空間,那么會有某些向量的方向在變換前后不會改變,方向不變但是這些向量的范數(shù)可能會改變,我這里說的都是實數(shù)空間的向量。
定義,定義為原始空間中的向量,為變換后空間的向量,簡單起見令為階方陣且特征值互不相同,對應(yīng)的特征向量線性無關(guān)。那么原始空間中的任何一個向量都可以由A的特征向量表示,既那么在變換到另一個空間時,這就求完了!
好,下面再說更深層次的含義。
在不同的領(lǐng)域特征值的大小與特征向量的方向所表示的含義也不同,但是從數(shù)學定義上來看,每一個原始空間中的向量都要變換到新空間中,所以他們之間的差異也會隨之變化,但是為了保持相對位置,每個方向變換的幅度要隨著向量的分散程度進行調(diào)整。
你們體會一下拖拽圖片使之放大縮小的感覺。
如果A為樣本的協(xié)方差矩陣,特征值的大小就反映了變換后在特征向量方向上變換的幅度,幅度越大,說明這個方向上的元素差異也越大,換句話說這個方向上的元素更分散。 編輯于 2016-04-16?添加評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權(quán)利 4贊同 反對,不會顯示你的姓名 單英晉?,數(shù)學門外漢 大衛(wèi)、王一凡、看開拉?等人贊同 什么是方陣?方陣就是n維線性空間上的線性變換。那么我們總要考慮最簡單的情況:什么是一維的線性變換呢?就是簡單的常數(shù)倍拉伸
A: x -> ax
在高維的時候,線性變換A的結(jié)構(gòu)可能很復雜,但它總會保持某些一維子空間不變。在這些子空間上它的限制就是一個一維線性變換,這個變換的拉伸常數(shù)就是A在這個子空間上的特征值。 發(fā)布于 2013-10-24?添加評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權(quán)利 1贊同 反對,不會顯示你的姓名 九銘書記?,知道一點微末的數(shù)學知識,一直想還原有趣… 李勇?贊同 特征值后面對于解矩陣微分方程也有很大作用。矩陣的特征值是一種線性變換,可以理解為在坐標軸上(可以為多維度坐標軸)的一種拉伸變換 發(fā)布于 2014-05-05?添加評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權(quán)利 2贊同 反對,不會顯示你的姓名 KevinSun?,機器學習博士在讀,只關(guān)注神經(jīng)網(wǎng)絡(luò)方法! 看開拉、teresa zhang?贊同 特征值首先是描述特征的。比如你的圖片是有特征的,并且圖片是存在某個坐標系的。特征向量就代表這個坐標系,特征值就代表這個特征在這個坐標方向上的恭喜??傊?#xff0c;就是代表在對應(yīng)左邊軸上的特征大小的貢獻 發(fā)布于 2014-05-05?3 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權(quán)利 32贊同 反對,不會顯示你的姓名 閆星光?,這個定理的證明將留給讀者作為練習 張序、啦啦、黃開宇?等人贊同 /* 多圖預(yù)警 */
用特征向量作為基,線性變換會很簡單,僅僅是伸縮變換,而特征值就是伸縮的大小。
各位已經(jīng)說的很清楚了,我就發(fā)幾張用mathematica做的圖吧。
這里只給出一些“可視化”的2D線性變換。
在平面當中的一個向量經(jīng)過一個線性變換(乘上一個矩陣)之后變成了另一個的向量,把它的起點接在,就可以表示線性變換的特性。再畫出一組特征向量,我們就有下圖:
顏色越深冷,代表向量長度越小。
可以看出特征向量所在的直線上的向量經(jīng)過變換之后方向不變,這意味著一個向量的分量是各自獨立的,這對于我們分析矩陣、線性變換就方便了很多。
(綠色箭頭是矩陣的行向量,紅色是特征向量)
只有一個特征值-1的情況:
特征值是虛數(shù)的反對稱矩陣:
其實做的是動圖,可惜知乎不支持動圖。 編輯于 2015-04-21?3 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權(quán)利 3贊同 反對,不會顯示你的姓名 知乎用戶?,隨風奔跑自由是方向 啦啦、兔小灰、知乎用戶?贊同 僅考慮非奇異矩陣。
以3階非奇異矩陣為例,設(shè)它的3個特征值(多重特征值就重復寫)分別為?,,, 對應(yīng)的特征向量分別為,和,則線性無關(guān)。
此時任一向量可表示為的線性組合,設(shè),則有
正好是在的各特征向量上分量乘以特征值之和。 編輯于 2015-10-13?1 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權(quán)利 1贊同 反對,不會顯示你的姓名 張涵?,NLP/ML/ECG 一碗醬油?贊同 從PAGERANK算法角度出發(fā),多次進行迭代R=MR得出收斂的向量即為特征向量。參考特征向量的定義:aR=MR,把a(一個數(shù))除到右邊去及有R=M1 R,M1=M/a.以上就是pagerank算法的簡易數(shù)學支撐。 發(fā)布于 2015-01-09?添加評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權(quán)利 17贊同 反對,不會顯示你的姓名 四爺?,Indeco 單梁、張榮真、骷髏頭?等人贊同 就去讓你給我接個人,她有很多特征,我會挑幾個特典型如長發(fā)超級大美女、身材高挑皮膚好。。。其中特征值就是多高,多美,特征向量就是這些分類。。因為不需要給你所有信息,只要幾個典型也不會讓你找錯人,所以能給你降維。
如果你要找女友,只要幾個典型如美,高之類的,估計你很快就能在100人中就能找到你心儀的,所以能尋優(yōu)
from:?http://www.zhihu.com/question/21874816
總結(jié)
以上是生活随笔為你收集整理的如何理解矩阵特征值?的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 虽然不能取代排版之王,但 Word 也能
- 下一篇: sift的java实现解述