無人駕駛數(shù)據(jù)集你只知道Kitti嗎?而實際比你想象的多。
H3D - HRI-US(地址:https://usa.honda-ri.com/hdd/introduction/h3d)本田研究所于2019年3月發(fā)布其無人駕駛方向數(shù)據(jù)集,相關(guān)介紹于https://arxiv.org/abs/1903.01568介紹。本數(shù)據(jù)集使用3D LiDAR掃描儀收集的大型全環(huán)繞3D多目標檢測和跟蹤數(shù)據(jù)集。其包含160個擁擠且高度互動的交通場景,在27,721幀中共有100萬個標記實例。憑借獨特的數(shù)據(jù)集大小,豐富的注釋和復(fù)雜的場景,H3D聚集在一起,以激發(fā)對全環(huán)繞3D多目標檢測和跟蹤的研究。
nuScenes(地址:https://www.nuscenes.org/)安波福于2019年3月正式公開了其數(shù)據(jù)集,并已在GitHub(地址:https://github.com/nutonomy/nuscenes-devkit)公開教程。數(shù)據(jù)集擁有從波士頓和新加坡收集的1000個“場景”的信息,包含每個城市環(huán)境中都有的最復(fù)雜的一些駕駛場景。該數(shù)據(jù)集由140萬張圖像、39萬次激光雷達掃描和140萬個3D人工注釋邊界框組成,是迄今為止公布的最大的多模態(tài)3D 無人駕駛數(shù)據(jù)集。
ApolloCar3D該數(shù)據(jù)集包含5,277個駕駛圖像和超過60K的汽車實例,其中每輛汽車都配備了具有絕對模型尺寸和語義標記關(guān)鍵點的行業(yè)級3D CAD模型。該數(shù)據(jù)集比PASCAL3D +和KITTI(現(xiàn)有技術(shù)水平)大20倍以上。
KITTI Vision Benchmark Suite(地址:
http://www.cvlibs.net/datasets/kitti/raw_data.php)數(shù)據(jù)集為使用各種傳感器模式,例如高分辨率彩色和灰度立體相機,Velodyne 3D激光掃描儀和高精度GPS/IMU慣性導(dǎo)航系統(tǒng),在10-100 Hz下進行6小時拍攝的交通場景。
Cityscape Dataset(地址:https://www.cityscapes-dataset.com/)專注于對城市街景的語義理解。大型數(shù)據(jù)集,包含從50個不同城市的街景中記錄的各種立體視頻序列,高質(zhì)量的像素級注釋為5000幀,另外還有一組較大的20000個弱注釋幀。因此,數(shù)據(jù)集比先前的類似嘗試大一個數(shù)量級。可以使用帶注釋的類的詳細信息和注釋示例。
Mapillary Vistas Dataset(地址:https://www.mapillary.com/dataset/vistas?pKey=xyW6a0ZmrJtjLw2iJ71Oqg&lat=20&lng=0&z=1.5)數(shù)據(jù)集是一個新穎的大規(guī)模街道級圖像數(shù)據(jù)集,包含25,000個高分辨率圖像,注釋為66個對象類別,另有37個類別的特定于實例的標簽。通過使用多邊形來描繪單個對象,以精細和細粒度的樣式執(zhí)行注釋。
CamVid
(地址:http://mi.eng.cam.ac.uk/research/projects/VideoRec/CamVid/)劍橋駕駛標簽視頻數(shù)據(jù)庫(CamVid)是第一個具有對象類語義標簽的視頻集合,其中包含元數(shù)據(jù)。數(shù)據(jù)庫提供基礎(chǔ)事實標簽,將每個像素與32個語義類之一相關(guān)聯(lián)。該數(shù)據(jù)庫解決了對實驗數(shù)據(jù)的需求,以定量評估新興算法。雖然大多數(shù)視頻都使用固定位置的閉路電視風(fēng)格相機拍攝,但我們的數(shù)據(jù)是從駕駛汽車的角度拍攝的。駕駛場景增加了觀察對象類的數(shù)量和異質(zhì)性。
Caltech數(shù)據(jù)集(地址:
http://www.vision.caltech.edu/Image_Datasets/CaltechPedestrians/) - 加州理工學(xué)院行人數(shù)據(jù)集包括大約10小時的640x480 30Hz視頻,這些視頻來自在城市環(huán)境中通過常規(guī)交通的車輛。大約250,000個幀(137個近似分鐘的長段)共有350,000個邊界框和2300個獨特的行人被注釋。注釋包括邊界框和詳細遮擋標簽之間的時間對應(yīng)。更多信息可以在我們的PAMI 2012和CVPR 2009基準測試文件中找到。
Comma.ai(地址:https://archive.org/details/comma-dataset)7.25小時的高速公路駕駛。包含10個可變大小的視頻片段,以20 Hz的頻率錄制,相機安裝在Acura ILX 2016的擋風(fēng)玻璃上。與視頻平行,還記錄了一些測量值,如汽車的速度、加速度、轉(zhuǎn)向角、GPS坐標,陀螺儀角度。這些測量結(jié)果轉(zhuǎn)換為均勻的100 Hz時基。
Oxford's Robotic Car(地址:https://robotcar-dataset.robots.ox.ac.uk/) - 超過100次重復(fù)對英國牛津的路線進行一年多采集拍攝。該數(shù)據(jù)集捕獲了許多不同的天氣,交通和行人組合,以及建筑和道路工程等長期變化。
伯克利BDD100K數(shù)據(jù)(地址:https://bdd-data.berkeley.edu/)超過100K的視頻和各種注釋組成,包括圖像級別標記,對象邊界框,可行駛區(qū)域,車道標記和全幀實例分割,該數(shù)據(jù)集具有地理,環(huán)境和天氣多樣性。
Udacity(地址:https://github.com/udacity/self-driving-car/tree/master/datasets) - 為Udacity Challenges(地址:https://cn.udacity.com/course/self-driving-car-engineer--nd013)發(fā)布的Udacity數(shù)據(jù)集。包含ROSBAG訓(xùn)練數(shù)據(jù)。(大約80 GB)。
University of Michigan North Campus Long-Term Vision and LIDAR Dataset(地址:http://robots.engin.umich.edu/nclt/) - 包括全方位圖像,3D激光雷達,平面激光雷達,GPS和本體感應(yīng)傳感器,用于使用Segway機器人收集的測距。
University of Michigan Ford Campus Vision and Lidar Data Set(地址:http://robots.engin.umich.edu/SoftwareData/Ford)基于改進的福特F-250皮卡車的自動地面車輛測試臺收集的數(shù)據(jù)集。該車配備了專業(yè)(Applanix POS LV)和消費者(Xsens MTI-G)慣性測量單元(IMU),Velodyne 3D激光雷達掃描儀,兩個推掃式前視Riegl激光雷達和Point Grey Ladybug3全方位攝像頭系統(tǒng)。
DIPLECS Autonomous Driving Datasets (2015)(地址:https://cvssp.org/data/diplecs/)通過在Surrey鄉(xiāng)村周圍駕駛的汽車中放置高清攝像頭來記錄數(shù)據(jù)集。該數(shù)據(jù)集包含大約30分鐘的駕駛時間。視頻為1920x1080,采用H.264編解碼器編碼。通過跟蹤方向盤上的標記來估計轉(zhuǎn)向。汽車的速度是從汽車的速度表OCR估算的(但不保證方法的準確性)。
Velodyne SLAM Dataset from Karlsruhe Institute of Technology(地址:
https://www.mrt.kit.edu/z/publ/download/velodyneslam/dataset.html)在德國卡爾斯魯厄市使用Velodyne HDL64E-S2掃描儀記錄的兩個具有挑戰(zhàn)性的數(shù)據(jù)集。
SYNTHetic collection of Imagery and Annotations (SYNTHIA)(地址:http://synthia-dataset.net/)包括從虛擬城市渲染的照片般逼真的幀集合,并為13個類別提供精確的像素級語義注釋:misc,天空,建筑,道路,人行道,圍欄,植被,桿,汽車,標志,行人, 騎自行車的人,車道標記。
CSSAD Dataset(地址:http://aplicaciones.cimat.mx/Personal/jbhayet/ccsad-dataset) 包括若干真實世界的立體數(shù)據(jù)集,用于在自動駕駛車輛的感知和導(dǎo)航領(lǐng)域中開發(fā)和測試算法。然而,它們都沒有記錄在發(fā)展中國家,因此它們?nèi)狈υ诮值篮偷缆飞峡梢哉业降奶厥馓卣鳎缲S富的坑洼,減速器和特殊的行人流。該立體數(shù)據(jù)集是從移動的車輛記錄的,并且包含高分辨率立體圖像,其補充有從IMU,GPS數(shù)據(jù)和來自汽車計算機的數(shù)據(jù)獲得的定向和加速度數(shù)據(jù)。
Daimler Urban Segmetation Dataset(地址:http://www.6d-vision.com/scene-labeling) 包括城市交通中記錄的視頻序列。該數(shù)據(jù)集由5000個經(jīng)過校正的立體圖像對組成,分辨率為1024x440。500幀(序列的每10幀)帶有5個類的像素級語義類注釋:地面,建筑,車輛,行人,天空。提供密集視差圖作為參考,但是這些不是手動注釋的,而是使用半全局匹配(sgm)計算的。
Self Racing Cars- XSens/Fairchild Dataset(地址:http://data.selfracingcars.com/)文件包括來自Fairchild FIS1100 6自由度(DoF)IMU,F(xiàn)airchild FMT-1030 AHRS,Xsens MTi-3 AHRS和Xsens MTi-G-710 GNSS / INS的測量結(jié)果。事件中的文件都可以在MT Manager軟件中讀取,該軟件可作為MT軟件套件的一部分提供,可在此處獲得。
MIT AGE Lab(地址:http://lexfridman.com/automated-synchronization-of-driving-data-video-audio-telemetry-accelerometer/) - 由AgeLab收集的1,000多小時多傳感器駕駛數(shù)據(jù)集的一小部分樣本。
LaRA(地址:http://www.lara.prd.fr/lara)-巴黎的交通信號燈數(shù)據(jù)集
KUL Belgium Traffic Sign Dataset(地址:http://www.vision.ee.ethz.ch/~timofter/traffic_signs/) - 具有10000多個交通標志注釋的大型數(shù)據(jù)集,數(shù)千個物理上不同的交通標志。用8個高分辨率攝像頭錄制的4個視頻序列安裝在一輛面包車上,總計超過3個小時,帶有交通標志注釋,攝像機校準和姿勢。大約16000張背景圖片。這些材料通過GeoAutomation在比利時,佛蘭德斯地區(qū)的城市環(huán)境中捕獲。
LISA: Laboratory for Intelligent & Safe Automobiles, UC San Diego Datasets(地址:http://cvrr.ucsd.edu/LISA/datasets.html)交通標志,車輛檢測,交通燈,軌跡模式。
博世小交通燈(地址:https://hci.iwr.uni-heidelberg.de/node/6132) - 用于深度學(xué)習(xí)的小型交通燈的數(shù)據(jù)集。
Multisensory Omni-directional Long-term Place Recognition (MOLP) dataset for autonomous driving(地址:http://hcr.mines.edu/code/MOLP.html) - 它是在美國科羅拉多州的一年內(nèi)使用全向立體相機錄制的。論文(地址:https://arxiv.org/abs/1704.05215)
DeepTesla(地址:https://selfdrivingcars.mit.edu/deeptesla/):主要包括tesla在兩種不同駕駛模式(human driving和autopilot)下的前置相機錄制的視頻和車輛的轉(zhuǎn)向控制信號。數(shù)據(jù)可以從這里下載:百度云(地址:https://pan.baidu.com/s/1c2J2IFA#list/path=%2F)。可以參考此GitHub(地址:https://github.com/CJHMPower/deep-tesla)
看到其他數(shù)據(jù)將繼續(xù)更新。。。
-
傳感器
+關(guān)注
關(guān)注
2553文章
51506瀏覽量
757198 -
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1210瀏覽量
24861 -
無人駕駛
+關(guān)注
關(guān)注
98文章
4094瀏覽量
121117
原文標題:無人駕駛數(shù)據(jù)集匯總
文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
小馬智行第六代無人駕駛Robotaxi亮相香港國際機場
首鋼水廠鐵礦無人駕駛礦卡實現(xiàn)常態(tài)化無人運行
低速無人駕駛清掃機器人無線充電解決方案
東華軟件:多地無人駕駛項目成功落地
UWB模塊如何助力無人駕駛技術(shù)
特斯拉推出無人駕駛Model Y
易控智駕無人駕駛項目落地紅沙泉露天煤礦
5G賦能車聯(lián)網(wǎng),無人駕駛引領(lǐng)未來出行
![5G賦能車聯(lián)網(wǎng),<b class='flag-5'>無人駕駛</b>引領(lǐng)未來出行](https://file1.elecfans.com/web2/M00/FE/FB/wKgaomagYqaAP6gIAAC6km0lWys159.png)
無人駕駛汽車應(yīng)用晶振TSX-3225
![<b class='flag-5'>無人駕駛</b>汽車應(yīng)用晶振TSX-3225](https://file1.elecfans.com/web2/M00/C7/73/wKgaomYKfKyANaWEAAAh9cwAwss963.png)
中國或支持特斯拉測試無人駕駛出租
百度開放車道級地圖數(shù)據(jù),助力高級駕駛與無人駕駛
如何利用無人機物聯(lián)卡實現(xiàn)無人駕駛飛行
無人駕駛礦卡整體解決方案(5g物聯(lián)網(wǎng)通信方案)
![<b class='flag-5'>無人駕駛</b>礦卡整體解決方案(5g物聯(lián)網(wǎng)通信方案)](https://file1.elecfans.com//web2/M00/C5/D4/wKgZomYCk4KAfF5-AAHGF6b2b0M954.png)
5G車載路由器引領(lǐng)無人駕駛車聯(lián)網(wǎng)應(yīng)用
![5G車載路由器引領(lǐng)<b class='flag-5'>無人駕駛</b>車聯(lián)網(wǎng)應(yīng)用](https://file1.elecfans.com/web2/M00/C1/0C/wKgaomXSz3iARhLHAACfCiTztCs690.png)
評論