mit数据集_DriveSeg:动态驾驶场景分割数据集
【導讀】麻省理工學院和豐田發布DriveSeg數據集以加速自動駕駛研究,DriveSeg包含許多常見道路對象的精確像素級表示,并通過連續視頻駕駛場景的鏡頭。
我們如何訓練自動駕駛模型,以加深對周圍世界的認識?計算機能否從過去的經驗中學習以識別未來的模式,以幫助他們安全地應對新的不可預測的情況?
麻省理工學院運輸與物流中心的AgeLab和豐田合作安全研究中心(CSRC)的研究人員發布了DriveSeg的開放數據集。
通過發布DriveSeg,麻省理工學院和豐田汽車正在努力推進自動駕駛系統的研究,就像人類的感知一樣,自動駕駛系統將駕駛環境視為連續的視覺信息流。
迄今為止,提供給研究團體的自動駕駛數據主要由大量靜態的單一圖像組成,這些圖像可用于識別和跟蹤在道路內和道路周圍發現的常見物體,例如自行車,行人或交通信號燈,通過使用“邊界框”。相比之下,DriveSeg包含許多相同的常見道路對象的更精確的像素級表示,但是是通過連續視頻駕駛場景的鏡頭。這種類型的全場景分割對于識別更多不總是具有這種定義和統一形狀的無定形對象(例如道路建設和植被)尤其有用。
根據Sherony的說法,基于視頻的駕駛場景感知提供的數據流更類似于動態,現實世界的駕駛情況。它還使研究人員能夠隨著時間的推移探索數據模式,這可能推動機器學習,場景理解和行為預測方面的進步。
DriveSeg是免費提供的,研究人員和學術界可將其用于非商業目的。數據由兩部分(manual與semi-auto)組成。DriveSeg(manual)是在馬薩諸塞州劍橋市繁忙的街道上白天捕獲的2分47秒的高分辨率視頻。該視頻的5,000幀使用12類道路對象的每像素人工標簽進行密集注釋。
DriveSeg(semi-auto)是從MIT高級車輛技術(AVT)聯盟數據中提取的20,100個視頻幀(67個10秒的視頻剪輯)。DriveSeg(Semi-auto)與DriveSeg(manual)具有相同的像素級語義注釋,除了注釋是通過MIT開發的新型半自動注釋方法完成的。與手動注釋相比,此方法利用了手動和計算的努力,可以以較低的成本更有效地粗略地注釋數據。創建該數據集的目的是評估注釋各種現實駕駛場景的可行性,并評估在通過基于AI的標記系統創建的像素標記上訓練車輛感知系統的潛力。
數據集主頁:https://agelab.mit.edu/driveseg
原文鏈接:http://news.mit.edu/2020/mit-toyota-release-visual-open-data-accelerate-autonomous-driving-research-0618
專知,專業可信的人工智能知識分發,讓認知協作更快更好!歡迎注冊登錄專知www.zhuanzhi.ai,獲取5000+AI主題干貨知識資料!歡迎微信掃一掃加入專知人工智能知識星球群,獲取最新AI專業干貨知識教程資料和與專家交流咨詢!點擊“閱讀原文”,了解使用專知,查看獲取5000+AI主題知識資源總結
以上是生活随笔為你收集整理的mit数据集_DriveSeg:动态驾驶场景分割数据集的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 计算机应用技术专业课程改革方案,【计算机
- 下一篇: 苹果忘记开机密码_苹果电脑忘记开机密码快