其他分享
首页 > 其他分享> > 车路协同自动驾驶数据集DAIR-V2X

车路协同自动驾驶数据集DAIR-V2X

作者:互联网

一、DAIR-V2X数据集简介

自动驾驶安全面临巨大挑战,单车智能存在驾驶盲区、中远距离感知不稳定等问题,导致自动驾驶车辆可运行设计域(ODD)受限,单车智能自动驾驶落地受阻。车路协同将助力保障自动驾驶安全运行。而数据是车路协同自动驾驶的关键,为促进学术界和产业界共同打造数据驱动的车路协同自动驾驶,清华大学智能产业研究院(AIR)依托北京市高级别自动驾驶示范区,推出全球首个车路协同自动驾驶数据集DAIR-V2X,共同探索车路协同自动驾驶的落地模式。
在这里插入图片描述

1、数据集特色优势

DAIR-V2X车路协同数据集是首个用于车路协同自动驾驶研究的大规模、多模态、多视角数据集,全部数据采集自真实场景,同时包含2D&3D标注,具备如下特点:

2、数据集引用方式

@dataset{
   DAIR-V2X2021,
   title={Vehicle-Infrastructure Collaborative Autonomous Driving: DAIR-V2X Dataset},
   author={Institue for AI Industry Research (AIR), Tsinghua University}, 
   website={http://air.tsinghua.edu.cn/dair-v2x}, 
   year={2021}
 }

3、数据集联合发布机构

二、解决痛点

与仅包含单车端或路端的数据集相比,此次发布的车路协同DAIR-V2X数据集首次克服了以往车路协同在同一时空检测但数据不同步的难题,提出车路协同多模态融合方法并给出检测指标,解决了车路协同产业以往缺乏真实道路场景数据的痛点。

三、开展任务研究

基于该数据集,研究人员可以展开车端3D检测任务(包括单目、点云和多模态三种形式)、路端3D检测任务(包括单目、点云和多模态三种形式)、车路协同3D检测(包括单目、点云和多模态等多种组合形式)等相关研究。

1、车端3D检测

1.1 数据采集

(1)设备型号

(2)标定和坐标系

完备的车端3D感知需要获取相机和LiDAR传感器数据的相互位置和内外参数等,以建立不同传感器数据间的空间同步。

1.2 数据标注

从车端数据中选择22325帧有效图像+点云多模态数据,利用2D&3D联合标注等技术标注图像和点云多模态数据中的道路障碍物目标的2D和3D框,同时标注了障碍物类别、障碍物3D信息、遮挡和截断等信息。其中DAIR-V2X的3D标注是以LiDAR为坐标系,同时保存如下标注信息:
障碍物类别:一共15类,包括行人、机动车等,其中带Ignore表示目标像素值小于1515或者遮挡部分大于4/5,OtherIgnore表示非人车目标像素值小于1515或者遮挡部分大于4/5;
在这里插入图片描述
障碍物截断:从[0, 1, 2]中取值,分别表示不截断、横向截断、纵向截断
障碍物遮挡:从[0, 1, 2]中取值,分别表示不遮挡、0%~50%遮挡,50%~100%遮挡
alpha:观察者视角,范围在[-pi, pi]
2D box:图像中2D bounding box框
3D box:3D bounding box,车端基于 LiDAR坐标系,路端基于虚拟LiDAR坐标系;包括 (height, width, length, x_loc, y_loc, z_loc) ,以米为单位;包括 (rotation_y) ,表示障碍物绕Y轴旋转角度

1.3 数据文件结构

文件数据结构

1.4 评测指标

目标检测精度mAP:针对车辆、行人等目标,计算3D 边界框的尺寸、 位置和置信度,基于 IoU 计算mean average precision (mAP) ,最终的精度是所有类别mAP的均值。

2、路端3D检测

2.1 数据采集

(1)路测传感器型号

(2)标定和坐标系

完备的路端3D感知需要获取相机和LiDAR传感器数据的相互位置和内外参数等,以建立不同传感器数据间的空间同步。其中路端LiDAR点云及相关内外参,全部转至x-y平面与地面平行的虚拟LiDAR坐标系。

2.2 数据标注

从车端数据中选择10084帧有效图像+点云多模态数据,利用2D&3D联合标注等技术标注图像和点云多模态数据中的道路障碍物目标的2D和3D框,同时标注了障碍物类别、障碍物3D信息、遮挡和截断等信息。其中Dair-V2X的3D标注是以LiDAR为坐标系,同时保存如下标注信息:
障碍物类别:一共15类,包括行人、机动车等,其中带Ignore表示目标像素值小于1515或者遮挡部分大于4/5,OtherIgnore表示非人车目标像素值小于1515或者遮挡部分大于4/5;
在这里插入图片描述
障碍物截断:从[0, 1, 2]中取值,分别表示不截断、横向截断、纵向截断
障碍物遮挡:从[0, 1, 2]中取值,分别表示不遮挡、0%~50%遮挡,50%~100%遮挡
alpha:观察者视角,范围在[-pi, pi]
2D box:图像中2D bounding box框
3D box:3D bounding box,车端基于 LiDAR坐标系,路端基于虚拟LiDAR坐标系;包括(height, width, length, x_loc, y_loc, z_loc) ,以米为单位;包括 (rotation_y) ,表示障碍物绕Y轴旋转角度

2.3 数据文件结构

在这里插入图片描述

2.4 评测指标

目标检测精度mAP:针对车辆、行人等目标,计算3D 边界框的尺寸、 位置和置信度,基于 IoU 计算mean average precision (mAP) ,最终的精度是所有类别mAP的均值。

3、车路协同3D检测

3.1 车路协同3D检测任务

车路协同3D检测是在通信带宽约束下,车端融合路端信息,实现3D目标检测的视觉感知任务。与传统自动驾驶3D检测任务相比,本任务需要解决车端与路端多视角、数据多模态、时空异步、通信受限等挑战,通过设计车路融合感知算法,实现盲区补充、提升感知精度。

(1)问题建模

(2)评测指标

(3)Baseline后融合参考方案

分别利用车端相机+LiDAR及路端相机+LiDAR传感器信息,计算3D目标位置、置信度等结果,在虚拟世界坐标系中将计算结果进行后融合。车路协同感知后融合整体流程如下图。
在这里插入图片描述

3.2 数据采集

(1)场景设置

(2)路端采集设备

在每个路口安装至少一对相机和激光雷达,其中每对相机和激光雷达安装在相同方位,同时对该相机和激光雷达进行标定,并对图像去畸变。路侧传感器型号如下:

(3)车端采集设备

自动驾驶车配备1个顶端激光雷达1个前视摄像头,同时对该激光雷达和前视摄像头进行标定,并对图像去畸变。顶端激光雷达和前视摄像头型号如下:

(4)标定和坐标系

为了达到不同传感器之间的空间同步,车路协同需要使用传感器参数信息进行坐标系转换,各坐标系之间的关系如下图:
在这里插入图片描述

3.3 数据标注

3.4 数据文件结构

在这里插入图片描述
在这里插入图片描述

特别说明:以上资源收集整理于清华大学智能产业研究院官网,官方网址:http://air.tsinghua.edu.cn/dair-v2x/。

标签:路端,数据,V2X,LiDAR,相机,车路,DAIR,坐标系,3D
来源: https://blog.csdn.net/zhouqiping/article/details/123171905