MMDetection3D数据加载详解
ztj100 2025-01-05 00:59 33 浏览 0 评论
OpenmmLab众多框架加载数据方式如出一辙,正好最近有项目需要使用MMDetection3D,以此为例,记录下数据加载、变换、增强,至进入网络的流程。
BaseDataset
数据在进入网络之前会被包装为DataLoader,而DataLoader在配置文件中如下:
train_dataloader = dict(
batch_size = 8,
num_workers = 8,
persistent_workers = True,
sampler = dict(type = 'DefaultSampler', shuffle = True),
dataset = dict(
type = dataset_type,
data_root = data_root,
ann_file = 'semantickitti_infos_train.pkl',
pipeline = train_pipeline,
metainfo = metainfo,
modality = input_modality,
ignore_index = ignore_label,
backend_args = backend_args))
参数和原生的DataLoader并无太大区别,这里,我们重点关注dataset,同样是一系列参数,其中,type的真实值为预定义的数据集类型或自定义的数据集类型。以SemanticKittiDataset为例,代码如下:
class SemanticKittiDataset(Seg3DDataset):
# 先行省略
其核心功能基本全在父类Seg3DDataset中,代码如下:
class Seg3DDataset(BaseDataset):
# 先行省略
再顺藤摸瓜,查看BaseDataset类代码:
class BaseDataset(Dataset):
这里的父类Dataset类如大家所想,即为pytorch框架中的经典Dataset,无需赘述,我们直接查看其子类BaseDataset中的__getitem__方法:
def __getitem__(self, idx: int) -> dict:
# 省略部分代码
if self.test_mode:
data = self.prepare_data(idx)
return data
for _ in range(self.max_refetch + 1):
data = self.prepare_data(idx)
if data is None:
idx = self._rand_another()
continue
return data
据此,我们知道单例数据的获取方法为prepare_data(idx),核心代码如下:
def prepare_data(self, idx) -> Any:
data_info = self.get_data_info(idx)
return self.pipeline(data_info)
get_data_info方法可以根据索引号idx获取到对应数据的信息,包含数据的路径、名称等元信息,而pipeline则根据数据的元信息获取真正的数据。在构造方法中,我们可以看到pipeline如下:
self.pipeline = Compose(pipeline)
继续探索Compose,其代码如下:
class Compose:
# 省略部分代码
def __init__(self, transforms: Optional[Sequence[Union[dict, Callable]]]):
self.transforms: List[Callable] = []
if transforms is None:
transforms = []
for transform in transforms:
if isinstance(transform, dict):
transform = TRANSFORMS.build(transform)
if not callable(transform):
raise TypeError(f'transform should be a callable object, '
f'but got {type(transform)}')
self.transforms.append(transform)
elif callable(transform):
self.transforms.append(transform)
def __call__(self, data: dict) -> Optional[dict]:
for t in self.transforms:
data = t(data)
if data is None:
return None
return data
在Compose类中,__call__方法用来回调,返回数据,而数据会被依次送入transforms序列进行处理,transforms是一个回调序列或字典序列,若是后者,则也会被当作配置而创建为回调序列。
根据pipeline的构造,其参数即为数据配置文件中的pipeline,配置代码如下:
train_pipeline = [
dict(
type = 'LoadPointsFromFile',
coord_type = 'LIDAR',
load_dim = 4,
use_dim = 4,
backend_args = backend_args
),
dict(
type = 'LoadAnnotations3D',
with_bbox_3d = False,
with_label_3d = False,
with_seg_3d = True,
seg_3d_dtype = 'np.int32',
seg_offset = 2**16,
dataset_type = 'semantickitti',
backend_args = backend_args),
dict(type = 'PointSegClassMapping'),
dict(type = 'PointSample', num_points = 0.9),
# 省略部分代码
dict(type = 'Pack3DDetInputs', keys = ['points', 'pts_semantic_mask'])
]
至此,数据加载流程逐渐明朗,对数据的所有操作(包括读取、增强、封装等)全部分解于pipeline序列的各个类中。数据类(如SemanticKittiDataset)在初始化的过程中会从pickle文件中获取到数据的元信息,并根据配置文件中的pipeline序列对其中的操作类型进行实例化,并按照顺序逐个应用于数据。接下来,我们继续探索pipeline中的数据操作类。
BaseTransform
以pipeline中的第一个类,即LoadPointsFromFile为例,其代码如下:
class LoadPointsFromFile(BaseTransform):
# 省略部分代码
def _load_points(self, pts_filename: str) -> np.ndarray:
try:
pts_bytes = get(pts_filename, backend_args=self.backend_args)
points = np.frombuffer(pts_bytes, dtype=np.float32)
except ConnectionError:
mmengine.check_file_exist(pts_filename)
if pts_filename.endswith('.npy'):
points = np.load(pts_filename)
else:
points = np.fromfile(pts_filename, dtype=np.float32)
return points
def transform(self, results: dict) -> dict:
pts_file_path = results['lidar_points']['lidar_path']
points = self._load_points(pts_file_path)
points = points.reshape(-1, self.load_dim)
points = points[:, self.use_dim]
if self.norm_intensity:
assert len(self.use_dim) >= 4, \
f'When using intensity norm, expect used dimensions >= 4, got {len(self.use_dim)}' # noqa: E501
points[:, 3] = np.tanh(points[:, 3])
if self.norm_elongation:
assert len(self.use_dim) >= 5, \
f'When using elongation norm, expect used dimensions >= 5, got {len(self.use_dim)}' # noqa: E501
points[:, 4] = np.tanh(points[:, 4])
attribute_dims = None
if self.shift_height:
floor_height = np.percentile(points[:, 2], 0.99)
height = points[:, 2] - floor_height
points = np.concatenate(
[points[:, :3],
np.expand_dims(height, 1), points[:, 3:]], 1)
attribute_dims = dict(height=3)
if self.use_color:
assert len(self.use_dim) >= 6
if attribute_dims is None:
attribute_dims = dict()
attribute_dims.update(
dict(color=[
points.shape[1] - 3,
points.shape[1] - 2,
points.shape[1] - 1,
]))
points_class = get_points_type(self.coord_type)
points = points_class(
points, points_dim=points.shape[-1], attribute_dims=attribute_dims)
results['points'] = points
return results
根据代码,_load_points方法是根据文件名读取点云数据,而transform方法则是负责解析出点云文件名,并将_load_points方法读取的点云进行后续处理,最终将修剪后的点云放入results字典中。这里补上BaseTransform的代码:
class BaseTransform(metaclass=ABCMeta):
def __call__(self, results: Dict) -> Optional[Union[Dict, Tuple[List, List]]]:
return self.transform(results)
@abstractmethod
def transform(self, results: Dict) -> Optional[Union[Dict, Tuple[List, List]]]:
典型的模板方法,子类只需要实现抽象方法transform即可。
LoadAnnotations3D
这个类是用来加载点云数据对应的标注的,根据参数中的加载类型,将对应的标注读取并填充到相应的字段中,代码如下:
class LoadAnnotations3D(LoadAnnotations):
# 省略部分代码
def transform(self, results: dict) -> dict:
results = super().transform(results)
if self.with_bbox_3d:
results = self._load_bboxes_3d(results)
if self.with_bbox_depth:
results = self._load_bboxes_depth(results)
if self.with_label_3d:
results = self._load_labels_3d(results)
if self.with_attr_label:
results = self._load_attr_labels(results)
if self.with_panoptic_3d:
results = self._load_panoptic_3d(results)
if self.with_mask_3d:
results = self._load_masks_3d(results)
if self.with_seg_3d:
results = self._load_semantic_seg_3d(results)
return results
根据transform方法中的代码段,大家也能猜到,省略的代码中应该包含了一系列的_load方法,确实如此,每一个_load方法负责加载不同的标注,而if中的条件则由配置文件传入。需要注意的是,每经过一个Transform类处理,结果会体现在results中,如果有新增数据,则在results中增加字段,如果只是对原数据增强,则直接在修改原数据。
其它pipeline中的Transform子类作用类似,大家可以对自己感兴趣的代码加以探索研究。
- 上一篇:异常检测汇总
- 下一篇:AI数据分析:集中度分析和离散度分析
相关推荐
- Jquery 详细用法
-
1、jQuery介绍(1)jQuery是什么?是一个js框架,其主要思想是利用jQuery提供的选择器查找要操作的节点,然后将找到的节点封装成一个jQuery对象。封装成jQuery对象的目的有...
- 前端开发79条知识点汇总
-
1.css禁用鼠标事件2.get/post的理解和他们之间的区别http超文本传输协议(HTTP)的设计目的是保证客户机与服务器之间的通信。HTTP的工作方式是客户机与服务器之间的请求-应答协议。...
- js基础面试题92-130道题目
-
92.说说你对作用域链的理解参考答案:作用域链的作用是保证执行环境里有权访问的变量和函数是有序的,作用域链的变量只能向上访问,变量访问到window对象即被终止,作用域链向下访问变量是不被允许的。...
- Web前端必备基础知识点,百万网友:牛逼
-
1、Web中的常见攻击方式1.SQL注入------常见的安全性问题。解决方案:前端页面需要校验用户的输入数据(限制用户输入的类型、范围、格式、长度),不能只靠后端去校验用户数据。一来可以提高后端处理...
- 事件——《JS高级程序设计》
-
一、事件流1.事件流描述的是从页面中接收事件的顺序2.事件冒泡(eventbubble):事件从开始时由最具体的元素(就是嵌套最深的那个节点)开始,逐级向上传播到较为不具体的节点(就是Docu...
- 前端开发中79条不可忽视的知识点汇总
-
过往一些不足的地方,通过博客,好好总结一下。1.css禁用鼠标事件...
- Chrome 开发工具之Network
-
经常会听到比如"为什么我的js代码没执行啊?","我明明发送了请求,为什么反应?","我这个网站怎么加载的这么慢?"这类的问题,那么问题既然存在,就需要去解决它,需要解决它,首先我们得找对导致问题的原...
- 轻量级 React.js 虚拟美化滚动条组件RScroll
-
前几天有给大家分享一个Vue自定义滚动条组件VScroll。今天再分享一个最新开发的ReactPC端模拟滚动条组件RScroll。...
- 一文解读JavaScript事件对象和表单对象
-
前言相信做网站对JavaScript再熟悉不过了,它是一门脚本语言,不同于Python的是,它是一门浏览器脚本语言,而Python则是服务器脚本语言,我们不光要会Python,还要会JavaScrip...
- Python函数参数黑科技:*args与**kwargs深度解析
-
90%的Python程序员不知道,可变参数设计竟能决定函数的灵活性和扩展性!掌握这些技巧,让你的函数适应任何场景!一、函数参数设计的三大进阶技巧...
- 深入理解Python3密码学:详解PyCrypto库加密、解密与数字签名
-
在现代计算领域,信息安全逐渐成为焦点话题。密码学,作为信息保护的关键技术之一,允许我们加密(保密)和解密(解密)数据。...
- 阿里Nacos惊爆安全漏洞,火速升级!(附修复建议)
-
前言好,我是threedr3am,我发现nacos最新版本1.4.1对于User-Agent绕过安全漏洞的serverIdentitykey-value修复机制,依然存在绕过问题,在nacos开启了...
- Python模块:zoneinfo时区支持详解
-
一、知识导图二、知识讲解(一)zoneinfo模块概述...
- Golang开发的一些注意事项(一)
-
1.channel关闭后读的问题当channel关闭之后再去读取它,虽然不会引发panic,但会直接得到零值,而且ok的值为false。packagemainimport"...
- Python鼠标与键盘自动化指南:从入门到进阶——键盘篇
-
`pynput`是一个用于控制和监控鼠标和键盘的Python库...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- idea eval reset (50)
- vue dispatch (70)
- update canceled (42)
- order by asc (53)
- spring gateway (67)
- 简单代码编程 贪吃蛇 (40)
- transforms.resize (33)
- redisson trylock (35)
- 卸载node (35)
- np.reshape (33)
- torch.arange (34)
- npm 源 (35)
- vue3 deep (35)
- win10 ssh (35)
- vue foreach (34)
- idea设置编码为utf8 (35)
- vue 数组添加元素 (34)
- std find (34)
- tablefield注解用途 (35)
- python str转json (34)
- java websocket客户端 (34)
- tensor.view (34)
- java jackson (34)
- vmware17pro最新密钥 (34)
- mysql单表最大数据量 (35)