日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > 目标检测 >内容正文

目标检测

推荐CVer的总结 | 性能最强的One-stage目标检测算法

發布時間:2025/3/8 目标检测 68 豆豆
生活随笔 收集整理的這篇文章主要介紹了 推荐CVer的总结 | 性能最强的One-stage目标检测算法 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

前言

2019.07.07,CVer 曾推出一篇:大盤點 | 性能最強的目標檢測算法,大家對此反映很好,還有很多同學私信要盤點 FPS 最快的目標檢測算法。

要知道衡量目標檢測最重要的兩個性能就是?精度和速度,特指 mAP 和 FPS。其實現在很多論文要么強調 mAP 很高,要么就是強調 mAP 和 FPS 之間 Trade-off 有多好。

目前的目標檢測論文主要分為兩大類:One-stage 和 Two-stage(還有部分是 Multi-stage),其中 One-stage 相對于 Two-stage 在性能方面的表現就是 FPS 會高一點,即速度相對要快一點。這個特點在這篇文章:大盤點 | 性能最強的目標檢測算法 就已經體現了,里面大多論文并不會介紹速度的對比實驗。

本文就來盤點一下 One-stage?最強的目標檢測算法,Amusi 將在COCO數據集上 mAP 最高的 One-stage 算法認為是"性能最強" One-stage 目標檢測算法。雖然 One-stage 目標檢測算法的 mAP 并不是最高的,但因為普遍具有速度優勢(個人覺得也就是落地應用價值),所以目前的研究有很多。

注:下一篇盤點應該會介紹 FPS最大(速度最快)的目標檢測算法,如果想盡早看到,請給這篇文章點個"在看",如果點擊"在看"的人多,速度最快的目標檢測算法大盤點也會盡快推出!

時間:2019.08.07

盤點內容:One-stage 目標檢測 mAP 最高的算法

說到 One-stage 目標檢測算法,大家腦子里最先蹦出來的算法應該是 YOLO系列和 SSD系列。

這兩個 One-stage? "王者" 代表算法已經發表有段時間了,SSD 發表于2015.12,而?YOLOv3 發表于 2018.04。

最近 One-stage 目標檢測相關的論文,比較典型的有:CornerNet、ExtremeNet、FoveaBox、FSAF、FCOS、FoveaBox、RepPoints、兩個 CenterNet 和 CornerNet-Lite等。

這么多目標檢測算法,究竟哪家最強呢?!

One-stage 性能最強的目標檢測算法

這里 Amusi 羅列幾個 One-stage mAP很強很強的算法,并以時間線的角度來展示。

注意:各個網絡使用不同backbone,或加不同的tricks,都會有不同的 mAP。所以Amusi 只介紹所能查到最強的算法或者最強組合算法。而且測試 mAP的時候可能會有 single-scale 和 multi-scale 兩種情況,這里只討論?single-scale。

FSAF: Feature Selective Anchor-Free Module for Single-Shot Object Detection

mAP:42.9

FPS:5.3

Date:2019.03.02?(未開源)

arXiv:https://arxiv.org/abs/1903.00621

FCOS: Fully Convolutional One-Stage Object Detection

mAP:43.2

FPS:None

Date:2019.04.02(已開源)

arXiv:https://arxiv.org/abs/1904.01355

https://github.com/tianzhi0549/FCOS

原論文 mAP是 42.1,但開源的代碼里又優化為 43.2

CenterNet:Objects as Points

mAP:42.1

FPS:7.8

Date:2019.04.16(已開源)

arXiv:https://arxiv.org/abs/1904.07850

https://github.com/xingyizhou/CenterNet

CenterNet: Keypoint Triplets for Object Detection

mAP:44.9

FPS:3

Date:2019.04.17?(已開源)

arXiv:https://arxiv.org/abs/1904.08189

https://github.com/Duankaiwen/CenterNet

AlignDet:Revisiting Feature Alignment for One-stage Object Detection

mAP:44.1

FPS:5.6

Date:2019.08.06?(未開源)

arXiv:https://arxiv.org/abs/1908.01570

綜上所述,Amusi 將?CenterNet?和?AlignDet 兩個算法認為是目前(2019.08.07) One-stage 目標檢測方向性能最強的算法,其中:

- CenterNet 的 mAP/FPS :44.9/3

- AlignDet? ?的?mAP/FPS ??:44.1/5.5

侃侃

這里將 mAP 作為 One-stage 目標檢測最強的指標,確實有失偏頗,不夠嚴謹,因為很多人將目標檢測應用在不同的任務上,其實要求的性能也有所不同。但請放心,Amusi 后續會統計一波?FPS最快的目標檢測算法 和 mAP-FPS Trade-off 最佳的算法

調查的論文和鏈接我會放在:https://github.com/amusi/awesome-object-detection,歡迎各位CVer進行 star 和 fork!

作者CVer-的公眾號

▲長按關注我們

機器學習初學者

黃海廣博士創建的公眾號,黃海廣博士個人知乎粉絲21000+,github排名全球前120名(30000+)。本公眾號致力于人工智能方向的科普性文章,為初學者提供學習路線和基礎資料。原創作品有:吳恩達機器學習個人筆記、吳恩達深度學習筆記等。

往期精彩回顧

  • 那些年做的學術公益-你不是一個人在戰斗

  • 良心推薦:機器學習入門資料匯總及學習建議

  • 吳恩達機器學習課程筆記及資源(github標星12000+,提供百度云鏡像)

  • 吳恩達深度學習筆記及視頻等資源(github標星8500+,提供百度云鏡像)

  • 《統計學習方法》的python代碼實現(github標星7200+)

  • 精心整理和翻譯的機器學習的相關數學資料

  • 首發:深度學習入門寶典-《python深度學習》原文代碼中文注釋版及電子書

  • 圖解word2vec(原文翻譯)

備注:加入本站微信群或者qq群,請回復“加群

加入知識星球(4100+用戶,ID:92416895),請回復“知識星球

總結

以上是生活随笔為你收集整理的推荐CVer的总结 | 性能最强的One-stage目标检测算法的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。