复杂背景下的自动驾驶目标检测数据集
復雜背景下的目標檢測數據集:
一、有霧場景下的目標檢測數據集
發展:
2017年Li等提出第 1 個端到端的去霧網絡 AODNet, 并且討論了圖像去霧對目標檢測任務的影響. 其選取目標檢測網絡 Faster R-CNN與AODNet 進行聯合優化訓練, 并進行目標檢測的評估, 這是第 1 個涉及合成有霧場景下目標檢測的研究.
2018年 UFDD(unconstrained face detection dataset)有霧場景下的人臉數據集發布,該數據集包含 6 種惡劣環境下的人臉。
2019年Li該課題組發布了大型的合成有霧圖像數據集 RESIDE,該數據集包括真實世界有霧場景下的目標檢測數據集(annotated realworld task-driven testing set, RTTS)和合成世界目標檢測數據集, 這是目前唯一帶多類檢測標簽的真實有霧場景的目標檢測數據集。該數據集格式與VOC2007相同格式標志 5類目標, 分別是汽車、自行車、摩托車、人和公共汽車. 該數據集分為5個子集,每個子集都可以用來訓練和評估。
2019年UG2+有霧場景數據集提出,同樣使用VOC2007 的格式標注與 RTTS 相同的 5 類目標, 但該測試集僅公布其中的 100 幅圖像標簽.
2021年論文《真實有霧場景下的目標檢測》中在目標檢測數據集 MS COCO 上合成有霧場景下的目標檢測數據集S-COCO進行訓練,并在RTTS 數據集以及 UG2+ 數據集上驗證測試。本文提出了基于知識引導的目標檢測框架(knowledge-guided object detection, KODNet)和基于圖像去霧和目標檢測的聯合學習框架(joint learning in dehazing and object detection, DONet). KODNet 通過統計先驗學習, 設計了深度檢測模型中錨框面比, 以此指導真實有霧場景下的目標檢測. DONet 將去霧模型與目標檢測模型級聯并進行聯合學習, 使網絡同時完成圖像去霧任務和目標檢測任務。
數據集的合成:首先, 對每幅圖像進行深度估計并生成深度圖像. 接著, 采用導向濾波方法對深度圖像進行平滑, 生成具有真實感的深度圖像. 最后, 采用大氣散射模型, 將濾波后的深度圖像和清晰圖像合成有霧圖像. 最終建立了有霧場景下的目標檢測數據集 (synthetic Microsoft common objects in context, S-COCO).探討了知識引導和模型聯合優化對真實有霧場景下目標檢測的促進作用.
論文《霧霾天氣下的車牌識別算法研究》對有霧場景下的車牌進行檢測。首先訓練數據集來自RESIDE數據集中的ITS和OTS子集數據集合成有霧圖像,最后采用RESIDE數據集中的子集數據集測試驗證。
論文《面向交通場景理解的除霧算法研究與分析》對霧天交通場景進行除霧。首先,對當前具有代表性的3種除霧算法進行對比測試,并在合成測試集以及真實霧天測試集上對不同除霧網絡的除霧效果進行分析評價,測試結果表明現有除霧算法在合成測試集上表現較好,而對真實霧天圖像適應性較差。其次,為改善現有除霧網絡在真實霧天圖像上適應性較差的現象,在現有網絡基礎上進行除霧網絡改進。選擇生成式對抗除霧網絡作為本文除霧網絡的主要結構,并引入多尺度密集特征融合模塊,減少圖像特征提取過程中空間信息的丟失。實驗證明所改進的除霧網絡在SOTS室外合成霧天測試集和RTTS4322真實霧天測試集上都有良好的除霧效果。
評價指標:
峰值信噪比(PSNR),結構相似性(SSIM)。
目前存在問題:
二、有霧場景下的目標檢測數據集
數據集網址:https://coda-dataset.github.io
該數據集由 1500 個精心挑選的真實世界駕駛場景組成,每個場景包含四個目標級的極端案例(平均),跨越 30 多個目標類別。在大規模自動駕駛數據集上訓練的標準目標寄存器在CODA的mAR表現顯著下降到不超過12.8%。
針對模糊圖像,真實交通場景,人臉等目標檢測的數據集。
參考:
總結
以上是生活随笔為你收集整理的复杂背景下的自动驾驶目标检测数据集的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 主题 07:如何进行 Java 系统性能
- 下一篇: Android包体积优化(常规、进阶、极