dataset
本文主要介绍几个自己用到的数据集
KITTI
KITTI数据集由德国卡尔斯鲁厄理工学院和丰田美国技术研究院联合创办,是一个自动驾驶场景下的大规模数据集。
KITTI数据采集平台包括2个灰度摄像机,2个彩色摄像机,一个Velodyne 3D激光雷达,4个光学镜头,以及1个GPS导航系统。
往往常用的是左侧彩色摄像头和激光雷达传感器。
数据格式
Values | Name | Description |
---|---|---|
1 | type | Describes the type of object: ‘Car’, ‘Van’, ‘Truck’, ‘Pedestrian’, ‘Person_sitting’, ‘Cyclist’, ‘Tram’, ‘Misc’ or ‘DontCare’ |
1 | truncated | Float from 0 (non-truncated) to 1 (truncated), where truncated refers to the object leaving image boundaries |
1 | occluded | Integer (0,1,2,3) indicating occlusion state: 0 = fully visible, 1 = partly occluded 2 = largely occluded, 3 = unknown |
1 | alpha | Observation angle of object, ranging [-pi…pi] |
4 | bbox | 2D bounding box of object in the image (0-based index): contains left, top, right, bottom pixel coordinates |
3 | dimensions | 3D object dimensions: height, width, length (in meters) |
3 | location | 3D object location x,y,z in camera coordinates (in meters) |
1 | rotation_y | Rotation ry around Y-axis in camera coordinates [-pi…pi] |
1 | score | Only for results: Float, indicating confidence in detection, needed for p/r curves, higher is better. |
KITTI 2d Detection
下载以下两项即可:
Download left color images of object data set (12 GB)
Download training labels of object data set (5 MB)
训练注意事项
类别:‘Car’-汽车, ‘Van’-厢式货车, ‘Truck’-载货卡车, ‘Pedestrian’-行人, ‘Person_sitting’, ‘Cyclist’-骑车人, ‘Tram’-电车, ‘Misc’ or ‘DontCare’
CrowdHuman
CrowdHuman数据集是旷世发布的用于行人检测的数据集,图片数据大多来自于google搜索。约每张图片包含23个人,同时存在各种各样的遮挡。每个人类实例都用头部边界框、人类可见区域边界框和人体全身边界框注释。
数据集准备
CrowdHuman官网
个人链接
数据集包括3个train,1一个val,1个test,两个odgt格式的标签文件
数据处理
官方给的是odgt标注格式,一般不用。例如,我想用YOLO进行训练,就需要进行格式转换。代码如下
odgt标注格式转为yolo格式
1 | import os |
其中,需要在main函数中修改数据集的位置。以及如果图片不和odgt文件在一个文件夹下,需要修改convert_crowdhuman_odgt_to_txt函数。(PS:这里才发现这个数据集真是从网上爬来的,很多图甚至还有水印,大小也都不一致。)
Nuscenes数据集
该数据集是用于自动驾驶的公共大规模数据集,收集了波士顿和新加坡的1000个驾驶场景。相机运行在12Hz,而激光雷达运行在20Hz。
数据集结构
1 | - v1.0-mini |
All articles on this blog are licensed under CC BY-NC-SA 4.0 unless otherwise stated.