IPOD模型分析(3D对象检测)
概述

- 第一个子采样网络用于过滤掉大多数的背景点;
- 第二阶段是基于点基础的候选框生成;
- 第三个组成部分是网络架构,由主干网络、proposal特征生成模块和边界框预测网络组成,它对生成的候选框进行分类和回归;
proposal特征生成模块
通过结合位置信息和上下文特征来生成从内部点的质心到目标实例对象中心的偏移量。将预测的残差添加回位置信息,以使特征几何变换更加鲁棒。

Backbone和bbox回归

Backbone
主干网络以原始点云数据\((x,y,z,r)\)作为输入,通过堆叠SA层和FP层模块来提取每个点的局部和全局特征。
Bounding-box预测网络
它将proposal特征生成模块中的特征作为输入。产生分类和回归预测。
实验数据

参考
- IPOD: Intensive Point-based Object Detector for Point Cloud