百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

MMDetection3D数据加载详解

ztj100 2025-01-05 00:59 33 浏览 0 评论

OpenmmLab众多框架加载数据方式如出一辙,正好最近有项目需要使用MMDetection3D,以此为例,记录下数据加载、变换、增强,至进入网络的流程。

BaseDataset

数据在进入网络之前会被包装为DataLoader,而DataLoader在配置文件中如下:

train_dataloader = dict(
    batch_size = 8,
    num_workers = 8,
    persistent_workers = True,
    sampler = dict(type = 'DefaultSampler', shuffle = True),
    dataset = dict(
        type = dataset_type,
        data_root = data_root,
        ann_file = 'semantickitti_infos_train.pkl',
        pipeline = train_pipeline,
        metainfo = metainfo,
        modality = input_modality,
        ignore_index = ignore_label,
        backend_args = backend_args))

参数和原生的DataLoader并无太大区别,这里,我们重点关注dataset,同样是一系列参数,其中,type的真实值为预定义的数据集类型或自定义的数据集类型。以SemanticKittiDataset为例,代码如下:

class SemanticKittiDataset(Seg3DDataset):
    # 先行省略

其核心功能基本全在父类Seg3DDataset中,代码如下:

class Seg3DDataset(BaseDataset):
    # 先行省略

再顺藤摸瓜,查看BaseDataset类代码:

class BaseDataset(Dataset):

这里的父类Dataset类如大家所想,即为pytorch框架中的经典Dataset,无需赘述,我们直接查看其子类BaseDataset中的__getitem__方法:

def __getitem__(self, idx: int) -> dict:
        # 省略部分代码
        if self.test_mode:
            data = self.prepare_data(idx)
            return data

        for _ in range(self.max_refetch + 1):
            data = self.prepare_data(idx)
            if data is None:
                idx = self._rand_another()
                continue
            return data

据此,我们知道单例数据的获取方法为prepare_data(idx),核心代码如下:

def prepare_data(self, idx) -> Any:
        data_info = self.get_data_info(idx)
        return self.pipeline(data_info)

get_data_info方法可以根据索引号idx获取到对应数据的信息,包含数据的路径、名称等元信息,而pipeline则根据数据的元信息获取真正的数据。在构造方法中,我们可以看到pipeline如下:

self.pipeline = Compose(pipeline)

继续探索Compose,其代码如下:

class Compose:
    # 省略部分代码
    def __init__(self, transforms: Optional[Sequence[Union[dict, Callable]]]):
        self.transforms: List[Callable] = []
        if transforms is None:
            transforms = []

        for transform in transforms:
            if isinstance(transform, dict):
                transform = TRANSFORMS.build(transform)
                if not callable(transform):
                    raise TypeError(f'transform should be a callable object, '
                                    f'but got {type(transform)}')
                self.transforms.append(transform)
            elif callable(transform):
                self.transforms.append(transform)

    def __call__(self, data: dict) -> Optional[dict]:
        for t in self.transforms:
            data = t(data)
            if data is None:
                return None
        return data

Compose类中,__call__方法用来回调,返回数据,而数据会被依次送入transforms序列进行处理,transforms是一个回调序列或字典序列,若是后者,则也会被当作配置而创建为回调序列。

根据pipeline的构造,其参数即为数据配置文件中的pipeline,配置代码如下:

train_pipeline = [
    dict(
        type = 'LoadPointsFromFile',
        coord_type = 'LIDAR',
        load_dim = 4,
        use_dim = 4,
        backend_args = backend_args
        ),
    dict(
        type = 'LoadAnnotations3D',
        with_bbox_3d = False,
        with_label_3d = False,
        with_seg_3d = True,
        seg_3d_dtype = 'np.int32',
        seg_offset = 2**16,
        dataset_type = 'semantickitti',
        backend_args = backend_args),
    dict(type = 'PointSegClassMapping'),
    dict(type = 'PointSample', num_points = 0.9),
    
    # 省略部分代码
    dict(type = 'Pack3DDetInputs', keys = ['points', 'pts_semantic_mask'])
]

至此,数据加载流程逐渐明朗,对数据的所有操作(包括读取、增强、封装等)全部分解于pipeline序列的各个类中。数据类(如SemanticKittiDataset)在初始化的过程中会从pickle文件中获取到数据的元信息,并根据配置文件中的pipeline序列对其中的操作类型进行实例化,并按照顺序逐个应用于数据。接下来,我们继续探索pipeline中的数据操作类。

BaseTransform

pipeline中的第一个类,即LoadPointsFromFile为例,其代码如下:

class LoadPointsFromFile(BaseTransform):
    # 省略部分代码
    def _load_points(self, pts_filename: str) -> np.ndarray:
        try:
            pts_bytes = get(pts_filename, backend_args=self.backend_args)
            points = np.frombuffer(pts_bytes, dtype=np.float32)
        except ConnectionError:
            mmengine.check_file_exist(pts_filename)
            if pts_filename.endswith('.npy'):
                points = np.load(pts_filename)
            else:
                points = np.fromfile(pts_filename, dtype=np.float32)

        return points

    def transform(self, results: dict) -> dict:
        pts_file_path = results['lidar_points']['lidar_path']
        points = self._load_points(pts_file_path)
        points = points.reshape(-1, self.load_dim)
        points = points[:, self.use_dim]
        if self.norm_intensity:
            assert len(self.use_dim) >= 4, \
                f'When using intensity norm, expect used dimensions >= 4, got {len(self.use_dim)}'  # noqa: E501
            points[:, 3] = np.tanh(points[:, 3])
        if self.norm_elongation:
            assert len(self.use_dim) >= 5, \
                f'When using elongation norm, expect used dimensions >= 5, got {len(self.use_dim)}'  # noqa: E501
            points[:, 4] = np.tanh(points[:, 4])
        attribute_dims = None

        if self.shift_height:
            floor_height = np.percentile(points[:, 2], 0.99)
            height = points[:, 2] - floor_height
            points = np.concatenate(
                [points[:, :3],
                 np.expand_dims(height, 1), points[:, 3:]], 1)
            attribute_dims = dict(height=3)

        if self.use_color:
            assert len(self.use_dim) >= 6
            if attribute_dims is None:
                attribute_dims = dict()
            attribute_dims.update(
                dict(color=[
                    points.shape[1] - 3,
                    points.shape[1] - 2,
                    points.shape[1] - 1,
                ]))

        points_class = get_points_type(self.coord_type)
        points = points_class(
            points, points_dim=points.shape[-1], attribute_dims=attribute_dims)
        results['points'] = points
        return results

根据代码,_load_points方法是根据文件名读取点云数据,而transform方法则是负责解析出点云文件名,并将_load_points方法读取的点云进行后续处理,最终将修剪后的点云放入results字典中。这里补上BaseTransform的代码:

class BaseTransform(metaclass=ABCMeta):
    def __call__(self, results: Dict) -> Optional[Union[Dict, Tuple[List, List]]]:
        return self.transform(results)

    @abstractmethod
    def transform(self, results: Dict) -> Optional[Union[Dict, Tuple[List, List]]]:

典型的模板方法,子类只需要实现抽象方法transform即可。

LoadAnnotations3D

这个类是用来加载点云数据对应的标注的,根据参数中的加载类型,将对应的标注读取并填充到相应的字段中,代码如下:

class LoadAnnotations3D(LoadAnnotations):
# 省略部分代码

    def transform(self, results: dict) -> dict:
        results = super().transform(results)
        if self.with_bbox_3d:
            results = self._load_bboxes_3d(results)
        if self.with_bbox_depth:
            results = self._load_bboxes_depth(results)
        if self.with_label_3d:
            results = self._load_labels_3d(results)
        if self.with_attr_label:
            results = self._load_attr_labels(results)
        if self.with_panoptic_3d:
            results = self._load_panoptic_3d(results)
        if self.with_mask_3d:
            results = self._load_masks_3d(results)
        if self.with_seg_3d:
            results = self._load_semantic_seg_3d(results)
        return results

根据transform方法中的代码段,大家也能猜到,省略的代码中应该包含了一系列的_load方法,确实如此,每一个_load方法负责加载不同的标注,而if中的条件则由配置文件传入。需要注意的是,每经过一个Transform类处理,结果会体现在results中,如果有新增数据,则在results中增加字段,如果只是对原数据增强,则直接在修改原数据。

其它pipeline中的Transform子类作用类似,大家可以对自己感兴趣的代码加以探索研究。

相关推荐

Jquery 详细用法

1、jQuery介绍(1)jQuery是什么?是一个js框架,其主要思想是利用jQuery提供的选择器查找要操作的节点,然后将找到的节点封装成一个jQuery对象。封装成jQuery对象的目的有...

前端开发79条知识点汇总

1.css禁用鼠标事件2.get/post的理解和他们之间的区别http超文本传输协议(HTTP)的设计目的是保证客户机与服务器之间的通信。HTTP的工作方式是客户机与服务器之间的请求-应答协议。...

js基础面试题92-130道题目

92.说说你对作用域链的理解参考答案:作用域链的作用是保证执行环境里有权访问的变量和函数是有序的,作用域链的变量只能向上访问,变量访问到window对象即被终止,作用域链向下访问变量是不被允许的。...

Web前端必备基础知识点,百万网友:牛逼

1、Web中的常见攻击方式1.SQL注入------常见的安全性问题。解决方案:前端页面需要校验用户的输入数据(限制用户输入的类型、范围、格式、长度),不能只靠后端去校验用户数据。一来可以提高后端处理...

事件——《JS高级程序设计》

一、事件流1.事件流描述的是从页面中接收事件的顺序2.事件冒泡(eventbubble):事件从开始时由最具体的元素(就是嵌套最深的那个节点)开始,逐级向上传播到较为不具体的节点(就是Docu...

前端开发中79条不可忽视的知识点汇总

过往一些不足的地方,通过博客,好好总结一下。1.css禁用鼠标事件...

Chrome 开发工具之Network

经常会听到比如"为什么我的js代码没执行啊?","我明明发送了请求,为什么反应?","我这个网站怎么加载的这么慢?"这类的问题,那么问题既然存在,就需要去解决它,需要解决它,首先我们得找对导致问题的原...

轻量级 React.js 虚拟美化滚动条组件RScroll

前几天有给大家分享一个Vue自定义滚动条组件VScroll。今天再分享一个最新开发的ReactPC端模拟滚动条组件RScroll。...

一文解读JavaScript事件对象和表单对象

前言相信做网站对JavaScript再熟悉不过了,它是一门脚本语言,不同于Python的是,它是一门浏览器脚本语言,而Python则是服务器脚本语言,我们不光要会Python,还要会JavaScrip...

Python函数参数黑科技:*args与**kwargs深度解析

90%的Python程序员不知道,可变参数设计竟能决定函数的灵活性和扩展性!掌握这些技巧,让你的函数适应任何场景!一、函数参数设计的三大进阶技巧...

深入理解Python3密码学:详解PyCrypto库加密、解密与数字签名

在现代计算领域,信息安全逐渐成为焦点话题。密码学,作为信息保护的关键技术之一,允许我们加密(保密)和解密(解密)数据。...

阿里Nacos惊爆安全漏洞,火速升级!(附修复建议)

前言好,我是threedr3am,我发现nacos最新版本1.4.1对于User-Agent绕过安全漏洞的serverIdentitykey-value修复机制,依然存在绕过问题,在nacos开启了...

Python模块:zoneinfo时区支持详解

一、知识导图二、知识讲解(一)zoneinfo模块概述...

Golang开发的一些注意事项(一)

1.channel关闭后读的问题当channel关闭之后再去读取它,虽然不会引发panic,但会直接得到零值,而且ok的值为false。packagemainimport"...

Python鼠标与键盘自动化指南:从入门到进阶——键盘篇

`pynput`是一个用于控制和监控鼠标和键盘的Python库...

取消回复欢迎 发表评论: