目标检测算法——自动驾驶开源数据集汇总2(附下载链接)

>>>深度学习Tricks,第一时间送达<<<

目录

一、Highway Driving

二、Mapillary Vistas

三、Cityscapes

四、CamVid

>>>一起交流!互相学习!共同进步!<<<


近期,小海带在空闲之余,收集整理了一批自动驾驶开源数据集供大家参考。 整理不易,小伙伴们记得一键三连喔!!!

一、Highway Driving

数据集下载地址:https://sites.google.com/site/highwaydrivingdataset/

简介:高速公路驾驶数据集是一个密集标注的语义视频分割任务的基准,它所提供的标注在空间上和时间上都比其他现有的数据集更密集。每一帧的标注都考虑到了相邻帧之间的关联性。

特征:由20个60帧的序列组成,帧率为30Hz;数据集分成训练集和测试集,训练集由15个序列组成,而测试集由剩下的五个序列组成;帧率为30Hz的短视频片段是在高速公路驾驶的情况下拍摄的;包含道路、车道、天空、栅栏、建筑、交通标志、汽车、卡车、植被和未知10类标签。未知类包括未定义的物体、采集数据的车辆的引擎盖和模糊的边缘。

二、Mapillary Vistas

数据集下载地址:https://www.mapillary.com/

简介:这是一个新颖的大规模街道级图像数据集,通过使用多边形来描绘单个对象,以精细和细粒度的样式执行注释。

特征:包含25,000个高分辨率图像,标注为66个对象类别,另有37个类别的特定实例的标签;采集地点:欧洲、北美和南美、亚洲、非洲和大洋洲的部分地区;采集环境:不同的天气,如晴天、雨天、阴天、雾天;不同的光照条件,如黎明、黄昏、夜晚;采集设备:手机、平板电脑、动作相机、专业拍摄设备。

三、Cityscapes

数据集下载地址:Cityscapes Dataset – Semantic Understanding of Urban Street Scenes

简介:专注于对城市街景的语义理解。大型数据集,包含从50个不同城市的街景中记录的各种立体视频序列。

特征:拥有5000张在城市环境中驾驶场景的图片,具有19个类别的密集像素标注,其中8个具有实例级分割;一张图片的标注和质量控制平均需要1.5小时;高质量的像素级注释为5000帧,另外20000个弱注释帧;标注类别:平面、建筑、自然、车辆、天空、物体、人类和空洞;标注图像分为训练组、验证组和测试组。

四、CamVid

数据集下载地址:http://mi.eng.cam.ac.uk/research/projects/VideoRec/CamVid/

简介:第一个具有对象类语义标签的视频集合,其中包含元数据。数据集提供基础事实标签,将每个像素与32个语义类之一相关联。该数据库解决了对实验数据的需求,以定量评估新兴算法。虽然大多数视频都使用固定位置的闭路电视风格相机拍摄,但该数据是从驾驶汽车的角度拍摄的。驾驶场景增加了观察对象类的数量和异质性。

特征:提供超过10分钟的高质量30Hz连续镜头,对应的语义标记图像为1Hz,部分为15Hz;包括四个高清视频序列,它们的名称和持续时间(分钟:秒)是0001TP(8:16),0006R0(3:59),0016E5(6:19)和Seq05VD(3:40),总的持续时间为22:14。0001TP序列是在黄昏时分拍摄的,场景中的物体可以场景中的物体仍然可以被识别,但比其他序列中的物体明显更暗,更有颗粒感。其他三个序列是在白天拍摄的,天气相当晴朗;采集环境:混合的城市和住宅;首先手动指定700多幅图像的逐像素语义分割,然后由第二个人检查并确认其准确性;拍摄了相机颜色响应和内部物理的标定序列,并计算了序列中每一帧的三维相机姿态;采集设备:车载摄像机;提供了定制的标签软件,帮助用户为其他图像和视频绘制精确的类标签。

关于算法改进及论文投稿可关注并留言博主的CSDN

>>>一起交流!互相学习!共同进步!<<<

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
THE END
分享
二维码

)">
< <上一篇
下一篇>>