DriveSeg:動態(tài)駕駛場景分割數(shù)據(jù)集
點擊上方“程序員大白”,選擇“星標(biāo)”公眾號
重磅干貨,第一時間送達(dá)
【導(dǎo)讀】麻省理工學(xué)院和豐田發(fā)布DriveSeg數(shù)據(jù)集以加速自動駕駛研究,DriveSeg包含許多常見道路對象的精確像素級表示,并通過連續(xù)視頻駕駛場景的鏡頭。

我們?nèi)绾斡?xùn)練自動駕駛模型,以加深對周圍世界的認(rèn)識?計算機(jī)能否從過去的經(jīng)驗中學(xué)習(xí)以識別未來的模式,以幫助他們安全地應(yīng)對新的不可預(yù)測的情況?
麻省理工學(xué)院運輸與物流中心的AgeLab和豐田合作安全研究中心(CSRC)的研究人員發(fā)布了DriveSeg的開放數(shù)據(jù)集。
通過發(fā)布DriveSeg,麻省理工學(xué)院和豐田汽車正在努力推進(jìn)自動駕駛系統(tǒng)的研究,就像人類的感知一樣,自動駕駛系統(tǒng)將駕駛環(huán)境視為連續(xù)的視覺信息流。
迄今為止,提供給研究團(tuán)體的自動駕駛數(shù)據(jù)主要由大量靜態(tài)的單一圖像組成,這些圖像可用于識別和跟蹤在道路內(nèi)和道路周圍發(fā)現(xiàn)的常見物體,例如自行車,行人或交通信號燈,通過使用“邊界框”。相比之下,DriveSeg包含許多相同的常見道路對象的更精確的像素級表示,但是是通過連續(xù)視頻駕駛場景的鏡頭。這種類型的全場景分割對于識別更多不總是具有這種定義和統(tǒng)一形狀的無定形對象(例如道路建設(shè)和植被)尤其有用。
根據(jù)Sherony的說法,基于視頻的駕駛場景感知提供的數(shù)據(jù)流更類似于動態(tài),現(xiàn)實世界的駕駛情況。它還使研究人員能夠隨著時間的推移探索數(shù)據(jù)模式,這可能推動機(jī)器學(xué)習(xí),場景理解和行為預(yù)測方面的進(jìn)步。
DriveSeg是免費提供的,研究人員和學(xué)術(shù)界可將其用于非商業(yè)目的。數(shù)據(jù)由兩部分(manual與semi-auto)組成。DriveSeg(manual)是在馬薩諸塞州劍橋市繁忙的街道上白天捕獲的2分47秒的高分辨率視頻。該視頻的5,000幀使用12類道路對象的每像素人工標(biāo)簽進(jìn)行密集注釋。
DriveSeg(semi-auto)是從MIT高級車輛技術(shù)(AVT)聯(lián)盟數(shù)據(jù)中提取的20,100個視頻幀(67個10秒的視頻剪輯)。DriveSeg(Semi-auto)與DriveSeg(manual)具有相同的像素級語義注釋,除了注釋是通過MIT開發(fā)的新型半自動注釋方法完成的。與手動注釋相比,此方法利用了手動和計算的努力,可以以較低的成本更有效地粗略地注釋數(shù)據(jù)。創(chuàng)建該數(shù)據(jù)集的目的是評估注釋各種現(xiàn)實駕駛場景的可行性,并評估在通過基于AI的標(biāo)記系統(tǒng)創(chuàng)建的像素標(biāo)記上訓(xùn)練車輛感知系統(tǒng)的潛力。
數(shù)據(jù)集主頁:https://agelab.mit.edu/driveseg
原文鏈接:http://news.mit.edu/2020/mit-toyota-release-visual-open-data-accelerate-autonomous-driving-research-0618
推薦閱讀
關(guān)于程序員大白
程序員大白是一群哈工大,東北大學(xué),西湖大學(xué)和上海交通大學(xué)的碩士博士運營維護(hù)的號,大家樂于分享高質(zhì)量文章,喜歡總結(jié)知識,歡迎關(guān)注[程序員大白],大家一起學(xué)習(xí)進(jìn)步!

