日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

DeepMind 研究:未知物体也能轻松识别分割,效果可迁移

發布時間:2023/12/15 综合教程 38 生活家
生活随笔 收集整理的這篇文章主要介紹了 DeepMind 研究:未知物体也能轻松识别分割,效果可迁移 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

從來沒有見過的新物體,它也能進行很好地分割。

這是 DeepMind 研究出的一種新的學習框架:目標發現和表示網絡(Object discovery and representation networks,簡稱 Odin)

以往的自我監督學習(SSL)方法能夠很好地描述整個大的場景,但是很難區分出單個的物體。

現在,Odin 方法做到了,并且是在沒有任何監督的情況下做到的。

區分出圖像中的單個物體可不是很容易的事,它是怎么做到的呢?

方法原理

能夠很好地區分出圖像中的各個物體,主要歸功于 Odin 學習框架的“自我循環”。

Odin 學習了兩組協同工作的網絡,分別是目標發現網絡和目標表示網絡。

目標發現網絡以圖像的一個裁剪部分作為輸入,裁剪的部分應該包含圖像的大部分區域,且這部分圖像并沒有在其他方面進行增強處理。

然后對輸入圖像生成的特征圖進行聚類分析,根據不同的特征對圖像中各個物體的進行分割。

目標表示網絡的輸入視圖是目標發現網絡中所生成的分割圖像。

視圖輸入之后,對它們分別進行隨機預處理,包括翻轉、模糊和點級顏色轉換等。

這樣就能夠獲得兩組掩模,它們除了剪裁之外的差異,其他信息都和底層圖像內容相同。

而后兩個掩模會通過對比損失,進而學習能夠更好地表示圖像中物體的特征。

具體來說,就是通過對比檢測,訓練一個網絡來識別不同目標物體的特征,同時還有許多來自其他不相干物體的“負面”特征。

然后,最大化不同掩模中同一目標物體的相似性,最小化不同目標物體之間的相似性,進而更好地進行分割以區別不同目標物體。

與此同時,目標發現網絡會定期根據目標表示網絡的參數進行相應的更新。

最終的目的是確保這些對象級的特性在不同的視圖中大致不變,換句話說就是將圖像中的物體分隔開來。

那么 Odin 學習框架的效果究竟如何呢?

能夠很好地區分未知物體

Odin 方法在場景分割時,沒有先驗知識的情況下遷移學習的性能也很強大。

首先,使用 Odin 方法在 ImageNet 數據集上進行預訓練,然后評估其在 COCO 數據集以及 PASCAL 和 Cityscapes 語義分割上的效果。

已經知道目標物體,即獲得先驗知識的方法在進行場景分割時,效果要明顯好于其他未獲得先驗知識的方法。

而 Odin 方法即使未獲得先驗知識,其效果也要優于獲得先驗知識的 DetCon 和 ReLICv2。

除此之外,Odin 方法不僅可以應用在 ResNet 模型中,還可以應用到更復雜的模型中,如 Swim Transformer。

在數據上,Odin 框架學習的優勢很明顯,那在可視化的圖像中,Odin 的優勢在何處體現了呢?

將使用 Odin 生成的分割圖像與隨機初始化的網絡(第 3 列),ImageNet 監督的網絡(第 4 列)中獲得的分割圖像進行比較。

第 3、4 列都未能清晰地描繪出物體的邊界,或者缺乏現實世界物體的一致性和局部性,而 Odin 生成的圖像效果很明顯要更好一些。

參考鏈接:

  • [1]https://twitter.com/DeepMind/status/1554467389290561541

  • [2]https://arxiv.org/abs/2203.08777

本文來自微信公眾號:量子位 (ID:QbitAI),作者:Pine

總結

以上是生活随笔為你收集整理的DeepMind 研究:未知物体也能轻松识别分割,效果可迁移的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。