基于D-S证据理论的数据融合算法的研究
D-S證據理論
在信息融合技術領域中,信息融合算法是研巧的核也技術。目前的主流的信息融合方法大致可W分為兩大類:概率統計類方法和人工智能方法。
其中概率統計類方法主要流行的數學工具或方法有如下幾種:
一是采用最簡單直觀的數學運算融合的加權平均法。
二是多用于實時融合動態低層次冗余數據的卡爾曼濾波法。
三是把每個傳感器進行貝葉斯計算并將各物體的關聯概率組成概率分布函數,然后使關聯的概率分布函數的似然函數最小,進而得到最終融合算法的多貝葉斯估計法。
四是適用于不確定問題推理的證據理論。
而人工智能則主要包括:利用多值邏輯推理,根據模糊集合理論的何種算法對各命題進行合并計算,最終實現數據融合的模糊攫輯理論;利用神經網絡的信號處理能力和自動推理能力實現多傳感器數據融合的神經網絡法等。
在涉及到數據融合的時候,我們很多人都可能接觸到一個名詞D-S證據理論,那么這到底是什么意思呢?如果下次看到了這個名詞,不要跳過,仔細看看其實很簡單。
Dempster-Shafer 證據理論首先由 Dempster 提出,構造了不確定性推理的一般框架,
后來 Shafer 對其進行了擴展和補充,最終形成了證據理論的整體框架。D-S 證據理論在
沒有先驗信息的情況下可以對不確定性和不精確性進行有效處理,因此它廣泛應用于各
種數據融合領域,作為一種不確定推理方法,證據理論的主要特點是:D-S證據理論算式簡單,且具有較為完善的理論基礎,其最大的優勢在于滿足比貝葉斯概率論更弱的條件,能夠合理的區分"不知道"和"不確定",這就允許人們對不確定性的問題進行建模分析并產生推理結果。
設Θ表示為對一個判決問題所有可能取值的集合,而且Θ中的事件元素相互獨立、
互不相容,稱這個集合Θ(論文里都長這樣,但其實都一樣,是希臘字母theta的大寫形式)為辨識框架。即:
Θ={ A1,A2,A3,……,An}
其中,我們稱Ai?(其中i=1,2,3……,n)稱為識別框架 Θ 的一個事件或元素。
在識別框架 Θ 中,它的任意子集Ai 都對應著某問題答案的命題,可以形容這個命題為“A 是問題的答案”。
由辨識框架Θ所有事件組成的集合稱為Θ的冪集,用來表示。
接著我們引入冪集的概念,即識別框架 Θ 全部子集的集合,記作 。
舉個簡單的例子,家里還剩最后一個蘋果,父母出去了,家中留有張一,張二,張三,王四,等幾個親生兒子,那么問題就來了,如果蘋果被吃了,究竟是誰吃的?那么我們就將{張一},{張二},{張三},{王四},{張一,張二},{張一,張三},{張一,王四},{張一,張二,張三}……{張一,張二,張三,王四}納入我們的辨識框架內。框架內的子集總有一個是問題的答案。
設Θ為識別框架,m是從集合2Θ到[0,1]的映射,A表示識別框架Θ的任一子集,記做A?Θ
且滿足:
則稱m(A)為事件A的基本信任分配函數(BPA)或者mass函數。BPA反映了證據對識別框架中的命題A的支持程度,說是函數其實是個數字值,但是因為是把可能性映射到[0,1]范圍內的具有函數的要素。而mΦ=0反映了證據對于空集是不產生任何支持度的。
其實這個基本信任分配函數作用如其名,就是將信任數值化并分配給命題的元素
????????????? 比如有這么一個證據E1:隔壁老王去過張家,認為張一吃蘋果可能性為0.5所以m1({張一})=0.5,張二,張三都很老實可能是一起吃的概率為0.2,m2({張二,張三})=0.2。王四吃的可能性最小為0.1那么m3({王四})=0.1。那么還有0.1的概率也就是m1(Θ)=0.1,這是壓根不知道是哪種情況,也就是我們常說的”應該”是這幾種情況吧,一個”應該”就說明還會有其他情況。如果沒有這0.1那么對于老王來說就是肯定只有這幾種情況。這個思考過程就把事件A的分配函數定好了。
而在識別框架Θ下的任一子集若有mA>0,則稱A為證據的焦元(focal element)
焦元中所包含的識別框架元素的個數稱為該焦元的基。當子集A只含有一個元素時,稱
為單元素焦元。若含有1個元素,則稱為n元素焦元。
就是如果A為{張二,張三},那么A是二元焦元,這個事A是由張二,張三他倆干的。
?????? 下面講一下信任函數
設Θ為識別框架,Bel是從集合2Θ到[0,1]的映射,也就是要把感覺的可能性給數字化。讓我們的感覺用0-1內的數字來代替,數字大我們感覺發生的可能性大,數字小,我們感覺發生的可能性就小。A表示識別框架Θ的任一子集,記作A?Θ,且滿足:
則我們稱Bel(A)為A的信任函數(Belief)。信度函數表達了對每個命題的信度分配
這有同學可能就感到迷糊了,我們還以偷吃蘋果那個為例,假如此時鄰居王二說了另一種看法E2:m1({張一})=0.2,m2({張二,張三})=0.2,m3({王四})=0.5,m4(Θ)=0.1。
那么Bel{張一}(相信是張一干的事這個命題的信任程度)便可以計算出來,如何計算?那么可不是簡單的相加,而是要利用D-S證據理論的組合規則了
筆者提醒:
則稱 m 為框架Θ上的基本可信度分配。m(A) 被稱為?A 的基本可信數。
基本可信數反映了對 A 本身(而不去管它的任何真子集與前因后果)的信度大小。
命題本質上就是一組證據的集合。
命題表達了我們對待認識的目標對象(識別框架)的一種潛在推測,每一個命題都是識別框架的一個子集,對應一個對現實問題的抽象表征。
基本可信度分配是概率論中完備性的一個泛化推廣。基本可信數累加和為1,代表著所有命題共同組合在一起,構成了完整的識別框架。
需要注意的是,和隨機事件一樣,命題本身是一個集合的概念(離散情況下),所以命題可以有子命題,對命題的可信度分配,同樣也有子集的概念。
可以看到,信度函數是一系列可信度分配的累計合成結果,這和概率論中隨機變量是單個離散隨機事件(離散概率)的累計的概念是一致的。
Dempster-Shafer證據合成規則是一種處理多個證據的聯合法則,簡稱D-S證據合成規則。在一個給定的識別框架下,我們可以基于不同的證據獲得對應的信任函數。此時我們需要一個方法來融合這些結果。假設這些證據不是完全相悖,那么就可以利用D-S證據合成規則加計算得到一個新的信任函數。這一新的信任函數稱為原來多個信任函數的正交和
設Θ為識別框架,mi是在這一識別框架下的某一證據的BPA,Aj表示證據的焦元,記作Aj?Θ,D-S證據合成規則表示為:
其中,K表示證據間的沖突程度,K值越大,表明證據間的沖突程度越大。而系數1/1-K稱為歸一化因子。其實真的只看公式的話,比較難理解到底怎么合成證據,為了讓大家更好更快的理解這個公式,下面以兩個證據合成情況為例,通過空間圖示的方式加以介紹。設Θ為識別框架,m1和m2分別是這一識別框架下的兩個證據的BPA,用Ai, bj分別表示兩個證據的焦元。下面兩張圖中,分別用線段[0,1]中用某一段長度表示信任分配函數m1(Ai)和m2Bj的值。而總的線段長度為1表示所有命題的BPA的和為1。
| Figure 1證據m2的基本概率分配值圖 |
Figure 2證據m1的基本概率分配圖
Figure 3? D-S證據合成公式效果圖
在圖3中將圖2和圖1結合起來,可以算出證據合成后的結果。整個大的矩形可以看成總的基本任務分配。其中,豎軸表示m1分配到其對應焦元Ai上的基本信任分配值。而橫軸表示m2分配到對應焦元Bj上的基本信任分配值。圖中陰影部分表示同時分配到Ai,Bj上的基本信任分配值,用m1(Ai)* m2(Bj)表示。當Ai∩Bj=A時,m1和m2的聯合作用就是將m1(Ai)* m2(Bj)確切分配到A上,同時為了使Ai∩Bj=?時分配到空集上的信任分配值為0,需要把
這一部分值丟棄。當丟棄這部分值后,總的信任值會小于1,因此需要在每個信任分配上乘于系數11-K,總而使總信任值為1。
對于多個證據也可采用相同的做法,將基本信任分配函數合成一個。
還記得偷蘋果的例子嗎,如果現在父母對于誰會吃蘋果有自己的感覺判斷,父母認為E3:
m1({張一})=0.2,m2({張二,張三})=0.2,m3({王四})=0.3,m4(Θ)=0.3。我們要知道每一個不確定的可能都包含所有的可能也就是為何我們用m4(Θ)來表示不確定的概率。
那么我們就可以整理出:
E1:m1({張一})=0.5,m2({張二,張三})=0.2,m3({王四})=0.2,m1(Θ)=0.1。
E2: m1({張一})=0.3,m2({張二,張三})=0.1,m3({王四})=0.5,m4(Θ)=0.1。
E3:m1({張一})=0.2,m2({張二,張三})=0.2,m3({王四})=0.3,m4(Θ)=0.3。
那么下面就是激動人心的時刻了,我們該怎么算出張一偷吃蘋果這個命題的整體可信度呢?
m({張一}) =[ m1({張一})+m1( Θ )] * [m2({張一}) + m2( Θ )]*[ m3({張一}) + m3( Θ )] - [m1( Θ ) * m2(Θ) * m3(Θ)]=0.120,
同理m({張二,張三})=0.050,m({王四})=0.108。而對于m(Θ)我們就要將其舍去
因此k=0.278。
這些概率和就不是1了所以我們將其歸一化
那么m({張一})=0.179,m({張二,張三})=0.388,m({王四})=0.503。(有一定誤差,可能和不為1,在實際處理的時候浮點數精度會很高,從而減少此類誤差)
在處理的過程中,初始D-S理論其實誤差和悖論有很多,比如(1)全沖突惇論,(2)1信任惇論,(3)0信任惇論,(4)證據失效惇論,(5)信任偏移惇論,(6)焦元基模糊停論。對于這方面的改進分為三個方面,一是基于對證據源的修正的方法;二是基于對合成規則的修正的方法;三是同時對證據源及合成規則修正的方法。
第一種基于對證據源的修正方案普遍認為,Dempster-shafer證據合成規則本身是沒有錯誤的。造成合成結果惇論的原因往往是因為通過傳感器獲得的證據受到了外部環境的干擾或某一傳感器在檢測過程中失效。基于此分析當證據源存在沖突時,只要對證據源進行預處理,淡化干擾因素,得到修正后的證據源,再使用Dempster-shafer合成規則完成合成即可
具體細節在此就不一一詳述了,有興趣的同學可以查閱資料。唉,word還不能直接復制,公式都是自己一點點扣的,排版都亂完了,可惜了。日后我研究到后會更新優化方案,關注我,我們一起學習數據融合。
總結
以上是生活随笔為你收集整理的基于D-S证据理论的数据融合算法的研究的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Linux 部署turnserver
- 下一篇: Log4j.properties配置详解