日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 >

UA MATH566 统计理论2 C-R不等式简介

發布時間:2025/4/14 13 豆豆
生活随笔 收集整理的這篇文章主要介紹了 UA MATH566 统计理论2 C-R不等式简介 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

UA MATH566 統計理論2 C-R不等式

  • 單個參數的情形
  • 多個參數的情形

點估計基礎那一篇討論到UMVUE了,這一講試圖給出無偏估計方差的一個下界。在統計理論1中推導的Fisher信息其實就是一個下界,但這一講會更詳細給出相關結論。

概念1 Cramer-Rao分布族(正則分布族){f(x,θ),θ∈Θ}\{f(x,\theta),\theta \in \Theta\}{f(x,θ),θΘ}
為了讓C-R不等式成立,需要一些條件,滿足這些條件的分布族被稱為C-R分布族:

  • θ∈Θ\theta \in \ThetaθΘΘ\ThetaΘ是開集,并且f(x,θ)=f(x,θ′)?θ=θ′f(x,\theta)=f(x,\theta^{'}) \Leftrightarrow \theta = \theta^{'}f(x,θ)=f(x,θ)?θ=θ
  • 記分布族的對數似然為L(θ)=ln?f(x,θ)L(\theta)=\ln f(x,\theta)L(θ)=lnf(x,θ),假設對數似然二階可導
  • 記得分函數S(x,θ)=?L(θ)S(x,\theta)=\nabla L(\theta)S(x,θ)=?L(θ),并假設S(x,θ)∈L2(X,B(X),PX)S(x,\theta) \in L^2(\mathcal{X},\mathcal{B}(\mathcal{X}),P_X)S(x,θ)L2(X,B(X),PX?)
  • 假設分布族FθF_{\theta}Fθ?的支撐Suppθ={x:f(x,θ)}>0Supp_{\theta}=\{x:f(x,\theta)\}>0Suppθ?={x:f(x,θ)}>0θ\thetaθ無關
  • 假設f(x,θ)f(x,\theta)f(x,θ)關于θ\thetaθ可導
  • 常見的非正則分布族的分布有均勻分布、帶位移的指數分布等。

    單個參數的情形

    假設Θ?R\Theta \subset \mathbb{R}Θ?R,則此時的得分函數是一維的
    S(x,θ)=?L(θ)?θ=1f(x,θ)?f(x,θ)?θS(x,\theta) = \frac{\partial L(\theta)}{\partial \theta} = \frac{1}{f(x,\theta)} \frac{\partial f(x,\theta)}{\partial \theta}S(x,θ)=?θ?L(θ)?=f(x,θ)1??θ?f(x,θ)?
    且滿足
    E[S(X,θ)]=0,E[S(X,θ)]2=I(θ)E[S(X,\theta)]=0,\ \ E[S(X,\theta)]^2 = I(\theta)E[S(X,θ)]=0,??E[S(X,θ)]2=I(θ)

    定理1 f(x,θ)f(x,\theta)f(x,θ)是Cramer-Rao分布族,g^(X)\hat{g}(X)g^?(X)θ^(X)\hat{\theta}(X)θ^(X)分別是g(θ)g(\theta)g(θ)θ\thetaθ的無偏估計,其中g(θ)g(\theta)g(θ)可導,則
    Var(θ^)≥I?1(θ),Var(g^(X))≥[g′(θ)]2I?1(θ)Var(\hat{\theta})\ge I^{-1}(\theta),\ \ Var(\hat{g}(X)) \ge [g'(\theta)]^2I^{-1}(\theta)Var(θ^)I?1(θ),??Var(g^?(X))[g(θ)]2I?1(θ)

    證明 很明顯取g(θ)=θg(\theta)=\thetag(θ)=θ就是更簡單那種情況,所以我們來證明一下第二個不等式和它的取等條件。根據Cauchy-Schwarz不等式,Var(X)Var(Y)≥[Cov(X,Y)]2Var(X)Var(Y)\ge [Cov(X,Y)]^2Var(X)Var(Y)[Cov(X,Y)]2,令X=g^(X)X = \hat{g}(X)X=g^?(X)Y=S(X,θ)Y = S(X,\theta)Y=S(X,θ),計算
    Cov(g^(X),S(X,θ))=E[g^(X)S(X,θ)]?E[g^(X)]E[S(X,θ)]=E[g^(X)S(X,θ)]=∫g^(x)S(x,θ)f(x,θ)dx=??θ∫g^(x)f(x,θ)dx=g′(θ)Cov(\hat{g}(X),S(X,\theta)) = E[\hat{g}(X)S(X,\theta)]-E[\hat{g}(X)]E[S(X,\theta)]=E[\hat{g}(X)S(X,\theta)] \\ = \int \hat{g}(x)S(x,\theta)f(x,\theta)dx = \frac{\partial }{\partial \theta} \int \hat{g}(x)f(x,\theta)dx = g'(\theta)Cov(g^?(X),S(X,θ))=E[g^?(X)S(X,θ)]?E[g^?(X)]E[S(X,θ)]=E[g^?(X)S(X,θ)]=g^?(x)S(x,θ)f(x,θ)dx=?θ??g^?(x)f(x,θ)dx=g(θ)
    第三個等號先把得分函數的公式帶入,然后把求導和求積分交換次序得到第四個等號,然后那個積分就是g^(X)\hat{g}(X)g^?(X)的期望,因為它是無偏估計,所以期望就是g(θ)g(\theta)g(θ)。因此
    Var(g^(X))Var(S(X,θ))=Var(g^(X))I(θ)≥[Cov(X,Y)]2=[g′(θ)]2?Var(g^(X))≥[g′(θ)]2I?1(θ)Var(\hat{g}(X))Var(S(X,\theta)) = Var(\hat{g}(X)) I(\theta)\ge [Cov(X,Y)]^2 = [g'(\theta)]^2 \\ \Rightarrow Var(\hat{g}(X)) \ge [g'(\theta)]^2I^{-1}(\theta)Var(g^?(X))Var(S(X,θ))=Var(g^?(X))I(θ)[Cov(X,Y)]2=[g(θ)]2?Var(g^?(X))[g(θ)]2I?1(θ)
    根據Cauchy-Schwarz不等式取等的條件,上式取等需要?a(θ)\exists a(\theta)?a(θ)
    S(X,θ)=a(θ)g^(X),a.s.S(X,\theta) = a(\theta) \hat{g}(X),a.s.S(X,θ)=a(θ)g^?(X),a.s.

    [g′(θ)]2I?1(θ)[g'(\theta)]^2I^{-1}(\theta)[g(θ)]2I?1(θ)為Cramer-Rao下界(CRLB),它與Fisher信息成反比,說明樣本中信息越多時,估計量的方差就越有可能降到更低。對于簡單隨機樣本X1,?,XnX_1,\cdots,X_nX1?,?,Xn?,他們的Fisher信息量是nI(θ)nI(\theta)nI(θ)(因為S(X,θ)S(X,\theta)S(X,θ)關于XXX的可加性),因此Cramer-Rao下界為
    CRLB=1n[g′(θ)]2I?1(θ)CRLB = \frac{1}{n}[g'(\theta)]^2I^{-1}(\theta)CRLB=n1?[g(θ)]2I?1(θ)
    這個式子說明樣本量提高也能降低估計量的方差的下界。

    基于CRLB還可以定義估計量的效率,
    e(g^)=lim?n→∞CRLBVar(g^(X))e(\hat{g}) = \lim_{n \to \infty} \frac{CRLB}{Var(\hat{g}(X))}e(g^?)=nlim?Var(g^?(X))CRLB?
    如果e(g^)=1e(\hat{g})=1e(g^?)=1,稱g^(X)\hat{g}(X)g^?(X)為漸近有效的無偏估計。

    多個參數的情形

    在多維的情況下,得分函數是
    S(x,θ)=?L(θ)S(x,\theta) = \nabla L(\theta)S(x,θ)=?L(θ)
    且滿足
    E[S(X,θ)]=0,E[S(X,θ)ST(X,θ)]=I(θ)E[S(X,\theta)]=0,\ \ E[S(X,\theta)S^T(X,\theta)] = I(\theta)E[S(X,θ)]=0,??E[S(X,θ)ST(X,θ)]=I(θ)
    I(θ)I(\theta)I(θ)是Fisher信息矩陣。

    定理2 f(x,θ)f(x,\theta)f(x,θ)是Cramer-Rao分布族,g^(X)\hat{g}(X)g^?(X)θ^(X)\hat{\theta}(X)θ^(X)分別是g(θ)g(\theta)g(θ)θ\thetaθ的無偏估計,其中g(θ)g(\theta)g(θ)可導,它的Jacobi矩陣記為Dg(θ)Dg(\theta)Dg(θ),則
    Var(g^(X))≥Dg(θ)I?1(θ)[Dg(θ)]TVar(\hat{g}(X)) \ge Dg(\theta)I^{-1}(\theta)[Dg(\theta)]^TVar(g^?(X))Dg(θ)I?1(θ)[Dg(θ)]T

    證明 思路和定理1證明類似,也是需要根據Cauchy-Schwarz不等式。計算
    Cov(g^(X),S(X,θ))=E[g^(X)ST(X,θ)]?E[g^(X)]E[S(X,θ)]=E[g^(X)ST(X,θ)]=∫g^(x)ST(x,θ)f(x,θ)dx=?∫g^(x)f(x,θ)dx=Dg(θ)Cov(\hat{g}(X),S(X,\theta)) = E[\hat{g}(X)S^T(X,\theta)]-E[\hat{g}(X)]E[S(X,\theta)]=E[\hat{g}(X)S^T(X,\theta)] \\ = \int \hat{g}(x)S^T(x,\theta)f(x,\theta)dx = \nabla \int \hat{g}(x)f(x,\theta)dx = Dg(\theta)Cov(g^?(X),S(X,θ))=E[g^?(X)ST(X,θ)]?E[g^?(X)]E[S(X,θ)]=E[g^?(X)ST(X,θ)]=g^?(x)ST(x,θ)f(x,θ)dx=?g^?(x)f(x,θ)dx=Dg(θ)
    因此
    Var(g^(X))≥[Cov(X,Y)]Var(S(X,θ))?1[Cov(X,Y)]T?Var(g^(X))≥Dg(θ)I?1(θ)[Dg(θ)]TVar(\hat{g}(X))\ge [Cov(X,Y)]Var(S(X,\theta))^{-1}[Cov(X,Y)]^T \\ \Rightarrow Var(\hat{g}(X)) \ge Dg(\theta)I^{-1}(\theta)[Dg(\theta)]^TVar(g^?(X))[Cov(X,Y)]Var(S(X,θ))?1[Cov(X,Y)]T?Var(g^?(X))Dg(θ)I?1(θ)[Dg(θ)]T
    根據Cauchy-Schwarz不等式取等的條件,上式取等需要?a(θ)\exists a(\theta)?a(θ)
    S(X,θ)=a(θ)g^(X),a.s.S(X,\theta) = a(\theta) \hat{g}(X),a.s.S(X,θ)=a(θ)g^?(X),a.s.

    總結

    以上是生活随笔為你收集整理的UA MATH566 统计理论2 C-R不等式简介的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。