日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

应用矩阵分析1 子空间分析1 线性子空间基础

發布時間:2025/4/14 编程问答 26 豆豆
生活随笔 收集整理的這篇文章主要介紹了 应用矩阵分析1 子空间分析1 线性子空间基础 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

應用矩陣分析1 子空間分析1 線性子空間基礎

  • 基本理論
    • 正交分解
    • 子空間的正交投影
  • 應用舉例
    • 離散信號的Casorati矩陣
    • 正交多分辨率分析
    • Orthogonal Procrustes Problem

這個系列介紹矩陣分析的應用,相關線性代數基礎會作簡單介紹,但主要篇幅還是按專題的形式介紹矩陣分析相關結果在實際問題中的應用。

在優化、近似、回歸等問題中,很多時候我們就是在試圖找最優的子平面來近似raw data space。比如dimensional reduction,就是找一個最優子空間,使得用高維數據在最優子空間上的投影作為對高維數據的近似只有很少或幾乎沒有information loss。因此子空間的分析的應用方法是解決這類問題的基礎。這一講我們先回顧一下與子空間相關的線性代數結論。

基本理論

考慮數域FFF上的線性空間VVV

定義一 向量組{v1,?,vm}\{v_1,\cdots,v_m\}{v1?,?,vm?}張成的子空間 (subspace) 記為
W=span{v1,?,vm}={w=∑i=1mαivi:?αi∈R}W = span\{v_1,\cdots,v_m\}=\{w=\sum_{i=1}^m \alpha_iv_i:\forall \alpha_i \in \mathbb{R}\}W=span{v1?,?,vm?}={w=i=1m?αi?vi?:?αi?R}

v1,?,vmv_1,\cdots,v_mv1?,?,vm?為generator,稱S={v1,?,vm}S=\{v_1,\cdots,v_m\}S={v1?,?,vm?}為spanning set。

定理一 (Spinning set theorem): WWWSSS的最大線性無關組張成的子空間相同。

定義二SSS的最大線性無關組為WWW的一組基,最大線性無關組包含的向量數目為WWW的維數,用dim(W)dim(W)dim(W)表示,SSSWWW的基都不是唯一的。

正交分解

定義三 假設W1,W2W_1,W_2W1?,W2?VVV的線性子空間,稱W1⊕W2W_1 \oplus W_2W1?W2?W1,W2W_1,W_2W1?,W2?的直和
W1⊕W2={w1+w2:w1∈W1,w2∈W2}W_1 \oplus W_2 = \{w_1+w_2:w_1 \in W_1,w_2 \in W_2\}W1?W2?={w1?+w2?:w1?W1?,w2?W2?}

定理二 (線性空間的直和分解)存在一列VVV的無交線性子空間W1,?,WpW_1,\cdots,W_pW1?,?,Wp?,使得
V=W1⊕?⊕WpV = W_1 \oplus \cdots \oplus W_pV=W1??Wp?

此時VVV中的向量xxx存在唯一分解,
x=w1+w2+?+wpx = w_1 + w_2 + \cdots + w_px=w1?+w2?+?+wp?

定義四 稱子空間W1W_1W1?W2W_2W2?正交,如果?w1∈W1,w2∈W2\forall w_1 \in W_1,w_2 \in W_2?w1?W1?,w2?W2?w1⊥w2w_1 \perp w_2w1?w2?。記為W1⊥W2W_1 \perp W_2W1?W2?

定理三(線性空間的正交分解) WWWVVV的一個子空間,?!W⊥\exists ! W^{\perp}?!W滿足W⊥W⊥W \perp W^{\perp}WWW⊥W^{\perp}WVVV的子空間并且
V=W⊕W⊥V = W \oplus W^{\perp}V=WW

稱這是VVV的正交分解,稱W⊥W^{\perp}WWWW的正交補。需要注意的是正交比無交更強,正交的子空間一定無交,但無交子空間不一定正交,因此正交分解是一種特殊的直和分解。

定義五 S?VS \subset VS?V為矩陣AAA的不變子空間,如果?x∈S\forall x \in S?xS, Ax∈SAx \in SAxS。如果AAA是方陣,λ\lambdaλAAA的一個特征值,顯然N(A?λI)N(A-\lambda I)N(A?λI)AAA的不變子空間,我們稱這個不變子空間為矩陣AAA的特征值λ\lambdaλ對應的特征子空間。其中N(A?λI)N(A-\lambda I)N(A?λI)叫做A?λIA-\lambda IA?λI的核空間,
N(A?λI)={x∈V:(A?λI)x=0}N(A-\lambda I) = \{x \in V:(A-\lambda I)x=0\}N(A?λI)={xV:(A?λI)x=0}

定理四(線性空間的特征分解)AAAVVV上的一個線性變換的矩陣表示,則VVV可以分解為AAA的特征子空間的直和,對于給定的線性變換,這種分解是唯一的。

子空間的正交投影

定義六P:V→S,S?VP:V \to S, S \subset VP:VS,S?V為(從VVVSSS的)正交投影算子,如果

  • C(P)=SC(P)=SC(P)=SPPP的像空間等于SSSC(P)={Px:?x∈V}C(P)=\{Px:\forall x \in V\}C(P)={Px:?xV}被稱為像空間或者列空間
  • P2=PP^2=PP2=PPPP是冪等矩陣
  • PH=PP^H=PPH=PPPP是Hermite矩陣
  • 定理五 (正交投影算子的性質)

  • 從一個線性空間到其某個子空間的正交投影算子是唯一的;
  • I?PI-PI?P是從VVVS⊥S^{\perp}S的正交投影算子
  • 如果S=span(A)S=span(A)S=span(A),則P=A(A′A)?A′P=A(A'A)^{-}A'P=A(AA)?A
  • 在比較構造正交投影的數值算法時,一個非常常用的工具是比較投影向量與子空間的夾角,我們可以定義向量與子空間的夾角為
    θ(x,S)=min?y∈Sarccos?∣(x,y)∣∥x∥2∥y∥2,?x∈V,S?V\theta(x,S)=\min_{y \in S}\arccos \frac{|(x,y)|}{\left\|x \right\|_2 \left\| y\right\|_2},\forall x \in V,S \subset Vθ(x,S)=ySmin?arccosx2?y2?(x,y)?,?xV,S?V

  • θ(x,S)=θ(x,Px)\theta(x,S)=\theta(x,Px)θ(x,S)=θ(x,Px)
  • 應用舉例

    離散信號的Casorati矩陣

    定義七 假設u1(k),?,um(k)u_1(k),\cdots,u_m(k)u1?(k),?,um?(k)是一組離散信號,定義矩陣
    C=[u1(k)u2(k)u3(k)?um?1(k)um(k)u1(k+1)u2(k+1)u3(k+1)?um?1(k+1)um(k+1)u1(k+2)u2(k+2)u3(k+2)?um?1(k+2)um(k+2)??????u1(k+m?2)u2(k+m?2)u3(k+m?2)?um?1(k+m?2)um(k+m?2)u1(k+m?1)u2(k+m?1)u3(k+m?1)?um?1(k+m?1)um(k+m?1)]C = \left[ \begin{matrix} u_1(k) & u_2(k) & u_3(k) & \cdots & u_{m-1}(k) & u_m(k) \\ u_1(k+1) & u_2(k+1) & u_3(k+1) & \cdots & u_{m-1}(k+1) & u_m(k+1) \\ u_1(k+2) & u_2(k+2) & u_3(k+2) & \cdots & u_{m-1}(k+2) & u_m(k+2) \\ \cdots & \cdots & \cdots & \cdots & \cdots & \cdots \\ u_1(k+m-2) & u_2(k+m-2) & u_3(k+m-2) & \cdots & u_{m-1}(k+m-2) & u_m(k+m-2) \\ u_1(k+m-1) & u_2(k+m-1) & u_3(k+m-1) & \cdots & u_{m-1}(k+m-1) & u_m(k+m-1) \end{matrix} \right]C=?????????u1?(k)u1?(k+1)u1?(k+2)?u1?(k+m?2)u1?(k+m?1)?u2?(k)u2?(k+1)u2?(k+2)?u2?(k+m?2)u2?(k+m?1)?u3?(k)u3?(k+1)u3?(k+2)?u3?(k+m?2)u3?(k+m?1)????????um?1?(k)um?1?(k+1)um?1?(k+2)?um?1?(k+m?2)um?1?(k+m?1)?um?(k)um?(k+1)um?(k+2)?um?(k+m?2)um?(k+m?1)??????????

    這個矩陣被稱為離散信號的Casorati矩陣,它的行列式被稱為Casorati行列式,如果存在一個kkk使得∣C∣≠0|C|\ne 0C?=0,就稱這組離散信號線性無關。

    正交多分辨率分析

    定義八 假設u(t)u(t)u(t)是一個平方可積信號,即u(t)∈L2(R)u(t) \in L^2(\mathbb{R})u(t)L2(R),取L2(R)L^2(\mathbb{R})L2(R)的一列遞增的子空間Vj,j∈ZV_j,j \in \mathbb{Z}Vj?,jZ,則根據定理三,存在
    Vj+1=Vj⊕WjV_{j+1}=V_{j} \oplus W_{j}Vj+1?=Vj?Wj?

    其中Wj=Vj⊥W_{j}=V^{\perp}_jWj?=Vj?,稱VjV_jVj?WjW_jWj?分別為分辨率2?j2^{-j}2?j的尺度子空間與小波子空間。這樣可以實現在V1,W1,?,Wn,?V_1,W_1,\cdots,W_n,\cdotsV1?,W1?,?,Wn?,?中分別構造對信號u(t)u(t)u(t)的近似,這種分析方法是正交多分辨率分析。

    Orthogonal Procrustes Problem

    假設我們對同一個對象進行了兩次測量,測量結果分別為A,BA,BA,B,我們希望找一個正交矩陣QQQ使得
    min?Q′Q=I∥A?BQ∥F\min_{Q'Q=I} \left\| A-BQ \right\|_FQQ=Imin?A?BQF?

    之所以要考慮這個問題是因為我們希望在不改變測量數據的scale與內部線性相關性的前提下剔除掉第二次測量的“測量誤差”,使得兩次數據更具可比性。從幾何上看,我們試圖達成的是讓C(B)C(B)C(B)中的向量經過一定的正交變換(旋轉、軸反射等)可以與C(A)C(A)C(A)的某個向量基本重合。

    關于Frobenius范數有一個比較有用的構造,對于任何矩陣MMM
    ∥M∥F2=∑i∑jMij2=tr(MTM)\left\| M \right\|_F^2 = \sum_{i}\sum_{j}M_{ij}^2 = tr(M^TM)MF2?=i?j?Mij2?=tr(MTM)

    因此
    ∥A?BQ∥F2=tr((A?BQ)′(A?BQ))=tr(A′A)+tr(Q′B′BQ)?2tr(Q′B′A)=tr(A′A)+tr(B′B)?2tr(Q′B′A)\left\| A-BQ \right\|_F^2 = tr((A-BQ)'(A-BQ)) \\ =tr(A'A)+tr(Q'B'BQ)-2tr(Q'B'A) = tr(A'A)+tr(B'B)-2tr(Q'B'A)A?BQF2?=tr((A?BQ)(A?BQ))=tr(AA)+tr(QBBQ)?2tr(QBA)=tr(AA)+tr(BB)?2tr(QBA)

    所以上面的最小化等價于最大化tr(Q′B′A)tr(Q'B'A)tr(QBA)。對B′AB'ABA做奇異值分解,B′A=UΣV′B'A=U\Sigma V'BA=UΣV
    tr(Q′B′A)=tr(Q′UΣV′)=tr(V′Q′UΣ)≤tr(Σ)tr(Q'B'A) = tr(Q'U\Sigma V') = tr(V'Q'U\Sigma) \le tr(\Sigma)tr(QBA)=tr(QUΣV)=tr(VQUΣ)tr(Σ)

    當且僅當Q=UV′Q=UV'Q=UV時取等。

    《新程序員》:云原生和全面數字化實踐50位技術專家共同創作,文字、視頻、音頻交互閱讀

    總結

    以上是生活随笔為你收集整理的应用矩阵分析1 子空间分析1 线性子空间基础的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。