driveseg场景分割数据集-麻将胡了pg电子网站

订阅方案:
普通用户:
¥30.00
vip用户:
¥0.00
联系客服 查看订阅方案
所属分类: 综合数据 标签: (无)
来源: moonapi
更新时间: 2023-11-30 最新数据时间: 自动更新
数据集简介:

我们提供了 mit driveseg 数据集,这是一个大规模的驾驶场景分割数据集,为 5,000 个视频帧中的每个像素和每个像素都进行了密集注释。这个数据集是一个面向前的逐帧像素级语义标记数据集,该数据集是在连续白天驾驶通过拥挤的城市街道时从移动的车辆捕获的。该数据集的目的是允许探索时间动态信息的价值,以便在动态的真实操作环境中进行全场景分割。

  • 质量保证
  • 免费样本数据
  • 免费数据更新
  • 提供发票
数据集概览(文件数量,文件种类,数据集行列数),数据集示例数据请查看下方数据集介绍或联系客服索取
  • 数据集介绍
  • 订阅方案
  • 问题反馈

driveseg场景分割数据集简介

 

 

我们提供了 mit driveseg 数据集,这是一个大规模的驾驶场景分割数据集,为 5,000 个视频帧中的每个像素和每个像素都进行了密集注释。这个数据集是一个面向前的逐帧像素级语义标记数据集,该数据集是在连续白天驾驶通过拥挤的城市街道时从移动的车辆捕获的。该数据集的目的是允许探索时间动态信息的价值,以便在动态的真实操作环境中进行全场景分割。

 

麻省理工学院和丰田发布driveseg数据集以加速自动驾驶研究,driveseg包含许多常见道路对象的精确像素级表示,并通过连续视频驾驶场景的镜头。我们如何训练自动驾驶模型,以加深对周围世界的认识?计算机能否从过去的经验中学习以识别未来的模式,以帮助他们安全地应对新的不可预测的情况?麻省理工学院运输与物流中心的agelab和丰田合作安全研究中心(csrc)的研究人员发布了driveseg的开放数据集。通过发布driveseg,麻省理工学院和丰田汽车正在努力推进自动驾驶系统的研究,就像人类的感知一样,自动驾驶系统将驾驶环境视为连续的视觉信息流。
迄今为止,提供给研究团体的自动驾驶数据主要由大量静态的单一图像组成,这些图像可用于识别和跟踪在道路内和道路周围发现的常见物体,例如自行车,行人或交通信号灯,通过使用“边界框”。相比之下,driveseg包含许多相同的常见道路对象的更精确的像素级表示,但是是通过连续视频驾驶场景的镜头。
这种类型的全场景分割对于识别更多不总是具有这种定义和统一形状的无定形对象(例如道路建设和植被)尤其有用。根据sherony的说法,基于视频的驾驶场景感知提供的数据流更类似于动态,现实世界的驾驶情况。它还使研究人员能够随着时间的推移探索数据模式,这可能推动机器学习,场景理解和行为预测方面的进步。
非结构化数据成增长主力的当下和未来,格物钛数据平台帮助机器学习团队更好地释放非结构化数据潜力,让ai应用开发更快、性能表现更优。
【导读】麻省理工学院和丰田发布driveseg数据集以加速自动驾驶研究,driveseg包含许多常见道路对象的精确像素级表示,并通过连续视频驾驶场景的镜头。
自动驾驶的公开数据集主要由视频和图片组成,近两年也增加了许多雷达数据。并且,好几个知名的大型数据项目都开放了众包的形式,自动驾驶方面的数据量会越来越大,其种类也会愈发丰富(仅统计目前2020年前半段多个…
目前,数据集的数据来源主要包括 相机(图片),摄像头(视频序列),激光雷达(点云),毫米波雷达,4d 成像毫米波雷达,imu, gps等,而相对应的任务主要包括:点云分割,目标检测与追踪等。下面将自动驾驶相关的…
mit driveseg dataset for dynamic driving scene segmentation

 

数据由两部分(manual与semi-auto)组成。driveseg(manual)是在马萨诸塞州剑桥市繁忙的街道上白天捕获的2分47秒的高分辨率视频。该视频的5,000帧使用12类道路对象的每像素人工标签进行密集注释。

driveseg(semi-auto)是从mit高级车辆技术(avt)联盟数据中提取的20,100个视频帧(67个10秒的视频剪辑)。driveseg(semi-auto)与driveseg(manual)具有相同的像素级语义注释,除了注释是通过mit开发的新型半自动注释方法完成的。与手动注释相比,此方法利用了手动和计算的努力,可以以较低的成本更有效地粗略地注释数据。创建该数据集的目的是评估注释各种现实驾驶场景的可行性,并评估在通过基于ai的标记系统创建的像素标记上训练车辆感知系统的潜力。 

推荐数据集
网站地图