日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

deepfake 图片_DeepFake克星来了!简单2步算法,造假图像无处可逃

發布時間:2023/12/15 编程问答 34 豆豆
生活随笔 收集整理的這篇文章主要介紹了 deepfake 图片_DeepFake克星来了!简单2步算法,造假图像无处可逃 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

??新智元報道??

來源:IEEE Spectrum

編輯:金磊

【新智元導讀】DeepFake最近成了熱點,也帶來不少擔憂。近期,針對DeepFake可能帶來的負面影響,研究人員開發了一個基于神經網絡的神奇,能夠鑒別DeepFake圖像的真偽。

DeepFake的克星,來了!

自從DeepFake誕生以來,從照片到視頻,造假能力可謂是出神入化,人們驚呼:“再也不敢相信自己的眼睛了。”由此所帶來的道德倫理與法律的影響也可見一斑。

針對這一現象,來自加州大學河濱分校的研究人員最近便提出了一種基于神經網絡的神器,分分鐘鑒別照片真偽!

論文地址:

https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=8626149

該算法的初始測試從未經修改的圖像到單個像素級的假圖像,其準確率在71%到95%之間,具體取決于使用的樣本數據集。

該算法還沒有擴展到包含對深度假視頻的檢測。

DeepFake是把雙刃劍,或成威脅社交媒體時代的新工具

加州大學河濱分校電子與計算機工程學教授Amit Roy-Chowdhury表示:

“DeepFake是經過修改的圖片或者視頻,可以向其中插入或刪除一部分內容,這就改變了圖片原來的含義。”

鑒別DeepFake的真偽在科研中可以說是一種挑戰,而這種挑戰的出現是因為它以一種人類肉眼無法分辨的方式被操縱著

而在目前經濟、社會快速發展的大背景下,無論是人道主義、產品發布或是競選活動等方面,DeepFake的視頻和圖像可能會導致事情發展結果的黑白顛倒。

試想一下,若是DeepFake技術被廣泛惡意使用,那么我們可能會經常看見某位政治候選人涉嫌實施暴力犯罪、某位CEO承認其公司產品存在安全問題等等擾亂社會平穩發展的事情。

Chowdhury是這項研究的五位作者之一,他表示:

這種檢測算法可能是對抗社交媒體時代新威脅的有力工具。不過大家也需要注意不要過度依賴這些算法。過度可信的檢測算法可能被那些試圖傳播虛假信息的人武器化。

我認為我們必須小心處理與AI和機器學習有關的任何事情,我們需要了解這些系統給出的結果是概率性的。并且這些概率通常不在0.98或0.99的范圍內,恰恰遠低于此。我們不應該盲目接受它們。

從這個意義上講,DeepFake實際上只是網絡安全中的一個新領域,網絡安全是一場永遠的軍備賽,“好人”和“壞人”都在不斷進步。

在這項研究中,工作人員利用當前文獻中已有的概念,將它們以一種新穎而又強大的方式結合起來。

只要兩步算法,DeepFake圖像無影遁形

這個算法其中一個組成部分就是遞歸神經網絡,它將問題中的圖像分成小塊(patch),然后逐個像素地去觀察這些小塊。

算法結構框架

神經網絡已經在成千上萬張深度偽造以及真實圖像中進行了訓練,因此它已經學會了如何在單個像素級別中凸顯偽造痕跡。

Roy-Chowdhury表示,圖像被篡改部分周圍的邊界往往包含著操作的痕跡。圖像在被插入物體時,邊界區域往往具有一定的特征。

而那些故意篡改圖像的人會額外在物體邊緣區域下功夫,搞得過于平滑,爭取讓算法提取不出特征來。

算法的另一部分就是通過一系列編碼過濾器傳遞整個圖像。從數學意義上講,這些過濾器能夠使算法在更大、更全面的層次上考慮整個圖像的情況。

然后,這個算法就會把從逐個像素輸出的結果和更高層次的編碼濾波器分析結果進行比對。?當這些并行分析在圖像的同一區域觸發紅色標記時,就會被標記為“可能是DeepFake”。

假如,一只小鳥的圖像粘貼到了原本只有樹枝的圖像(如下圖所示)。

在這種情況下,逐像素(pixel-by-pixel)算法可能會將鳥爪周圍的像素標記為“有問題”。而編碼器算法可能會在更大的層次上,例如其他邊界問題或更大尺度級別的異常。

只要這兩種神經網絡標記處鳥周圍圖像的同一區域,Roy-Chowdhury團隊的算法就會把鳥和樹枝的照片歸類為“可能是DeepFake”。

下一步,DeepFake視頻也將“在劫難逃”

DeepFake的圖像目前已然能夠鑒別真偽,那么下一步就是視頻了。

Roy-Chowdhury表示現在需要對算法做一個擴展,并應用到視頻中。這種算法可能需要考慮圖像如何逐幀變化,以及能否從變化中及時識別出任何可檢測的模式。

鑒于DeepFake檢測的緊迫性,以及隨著世界各地越來越多不懷好意的人試圖利用這種虛假信息作惡。Roy-Chowdhury呼吁其他研究人員能夠利用他們的算法在更真實的環境中做檢測。

論文:

https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=8626149

博客:

https://spectrum.ieee.org/tech-talk/computing/software/a-twotrack-algorithm-to-detect-deepfake-images

更多閱讀:

華為 200 萬年薪應屆博士大起底!8 位天才少年學校專業詳解

總結

以上是生活随笔為你收集整理的deepfake 图片_DeepFake克星来了!简单2步算法,造假图像无处可逃的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。