日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

人类读不懂唇语?交给深度学习,精度可达 84.41%

發布時間:2023/11/22 综合教程 44 生活家
生活随笔 收集整理的這篇文章主要介紹了 人类读不懂唇语?交给深度学习,精度可达 84.41% 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

  讀懂唇語,這是擺在我們面前的一道難題,大多數人平均只能讀對一句唇語的十分之一。那么 AI 能做到嗎?

  早在 2016 年,牛津大學人工智能實驗室、谷歌 DeepMind 和加拿大高等研究院(CIFAR)就聯合開發了結合深度學習技術的唇讀程序 LipNet。隨后,提高計算機唇讀精度,便成為了該領域的一項重要挑戰。

  近日,來自浙江工業大學、中科院計算技術研究所智能信息處理重點實驗室、中國科學院大學的研究團隊更是共同提出了在局部特征層和全局序列層上引入互信息約束,增強口型特征與語音內容的關系,將計算機唇讀精度提升至 84.41%。

  當地時間 2020 年 3 月 13 日,相關論文 Mutual Information Maximization for Effective Lip Reading(有效唇讀的互信息最大化)發表于預印本網站 arXiv。

  解決詞匯級唇讀的“固有”問題

  唇讀(lip-reading/speech-reading),簡單來講就是觀察說話者的口型變化,“讀出”其表達的內容。實際上,唇讀的過程是利用視覺信道信息補充聽覺信道信息,這對聽力較弱的群體、嘈雜環境中的工作者以及執法機構具有實際應用意義。

  而在計算機視覺領域的語境下,唇讀作為一種基于深度學習的模型,更多地被用來推斷視頻中的語音內容,可對基于音頻的語音識別、生物認證等進行輔助。

  在論文中,研究團隊提到了「詞匯級唇讀」(word-level lip reading)的概念。實際上,詞匯級唇讀是唇讀的一個分支,也是研究團隊此次研究的主要關注方向,它存在一些“固有”問題。

  第一,即使在同一視頻中存在其他單詞,每個輸入視頻都用單個詞標簽來注釋。例如下圖中包括總共 29 個幀的視頻樣本被注釋為“ABOUT”,但是“ABOUT”一詞的實際幀僅包括在時間步 T=12∼19 處的幀,即紅框中的部分,而紅框前后的幀對應的詞匯分別為“JUST”和“TEN”。

  上面這個例子反映出詞匯級唇讀的一個問題——模型無法完全關注有效的關鍵幀,因此詞匯邊界劃分不準確。

  第二,同一詞匯標簽下的視頻樣本畫面經常存在變化。例如下圖中的畫面都屬于以“ABOUT”為標簽的視頻。

  上述 2 個詞匯級唇讀的特性要求唇讀模型能夠抵抗序列中的噪聲,從而在各種語音環境下捕獲一致的潛在模式。

  此外,準確捕捉口型的變化也并不容易——發音相似的詞匯口型相似,同音詞的識別也更是使難度升級。

  實際上,確保計算機唇讀性能良好,很大程度上正是取決于 2 點:

  • 是否能有效地捕獲口型變化;

  • 是否能有效地抵抗由姿態、光線、揚聲器外觀等變化引起的噪聲。

  引入不同層級的「互信息最大化」

  雷鋒網(公眾號:雷鋒網)了解到,互信息(mutual information,MI)是用于測量兩個隨機變量之間的關系的基本量,當給定一個隨機變量時,它總是用來計算另一個隨機變量所擁有的信息量?;诖?,兩個隨機變量的互信息總是被用來衡量兩變量間的相互依賴性。

  為解決上述問題,此次研究團隊主要從兩方面著手,引入了不同層級的「互信息最大化」(mutual information maximization,MIM),旨在使得模型同時具備較好的鑒別能力及魯棒性,保證唇讀更為有效。

【雷鋒網注:基本架構】

  一方面,研究團隊施加「局部互信息最大化」(local mutual information maximization,LMIM)約束,限制每個時間步生成的特征,以使它們能夠與語音內容具有強關系,從而提高模型發現精細的口型變化及發音類似的詞之間的差異(例如“spend”和“spending”)的能力。

【雷鋒網注:LMIM 訓練基礎網絡】

  另一方面,研究團隊引入「全局互信息最大化」(global mutual information maximization,GMIM)約束,使得模型更多地關注對與語音內容相關的關鍵幀的識別,同時更少地關注各種可能出現的噪聲。

【GMIM 訓練基礎網絡】

  利用 LRW 和 LRW-1000 評估

  為驗證這一方法,研究團隊利用 2 個大規模詞匯水平的數據集對其進行評估,將其與其他主流的唇語識別模型方法進行了詳細的幾方面分析、比較,包括 LMIM 和 GMIM 與基線的比較、深度學習可視化等。

  以下是 2 個數據集的具體信息:

  • LRW:于 2016 年發布,總樣本量為 488766,包括 500 個詞匯等級,涉及講者超 1000 名,講話環境差異很大。該數據集被主流唇讀方法廣泛使用,具有挑戰性的數據集;

  • LRW-1000:總樣本量為 70000,總時長約 57 小時,包括 1000 個詞匯等級。該數據集旨在覆蓋不同的語音模式和畫面條件,從而結合在實際應用中遇到的挑戰。

  經評估,研究團隊發現GMIM 可將精度提高到 84.41%,這主要得益于它對不同幀關注不同的特性。與其他除視覺信息外務額外輸入的唇讀方法相比,研究團隊在 LRW 數據集上得到了迄今為止最佳的性能(如下圖)。

  此外,通過引入 LMIM,模型對發音相似的詞匯的識別的確顯示出了更高的準確性和明顯的改進,例如 Makes/making 和 Political/politics(如下圖)。

  同時,研究團隊利用可視化對GMIM 的效果進行了進一步探究。如下圖所示,下列這些詞之間的差異范圍從 -20 至 20 擴大到 -40 至 60 之間——這意味著隨著 GMIM 的引入,區分詞匯變得更容易。

  可見,在不使用額外數據或額外預訓練模型的前提下,該研究團隊的上述方法相比其他主流唇讀模型性能的確較為突出,希望這一方法為其他模型提供借鑒。

  參考資料:

  https://arxiv.org/abs/2003.06439

  https://www.leiphone.com/news/201611/lmrRpn2DdOUoex3E.html

總結

以上是生活随笔為你收集整理的人类读不懂唇语?交给深度学习,精度可达 84.41%的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。