-
使用模拟现实工况下的线阵激光雷达扫描获取的空间非合作目标多帧可视点云,应用Visual Studio 2013与点云库PCL (Point Cloud Library)验证文中算法相对于传统ICP算法在效率及精度方面的提高效果,考虑了任务要求和技术指标(任务技术指标:配准角度误差为±5°)。空间非合作目标模型与实物比例1∶1,运动状态为自旋和章动的复合运动,运动仿真参数设定:章动角速度为5.1037 (°)/s,雷达扫描帧率为1 Hz,目标运动周期时长约为72 s,即73帧数据。在线阵激光雷达完整捕捉非合作目标运动周期的条件下,即非合作目标形貌可完全获得,卫星支架仅第21~50帧数据存在,其余时刻被主体及太阳能帆板遮挡。
-
使用可视化数据结构和组件,以加载原始空间非合作目标仿真第20帧及第50帧可视点云数据为例,如图2所示。
对空间非合作目标可视点云进行传统区域生长聚类。经过大量实验与计算,在保证阈值设定最大可能满足所有可视点云数据聚类的前提下,选取最优泛用平滑度阈值为30,曲率阈值为0.03,点云最小规模阈值
$reg.setMinClusterSize = 50$ ,点云最大规模阈值$reg.setMaxClusterSize = 10\;000$ 。在该参数下,可视点云特征保留较为全面,如主体上方的姿控喷嘴、前置小型信号接收天线的弧形侧边和部分支架,区域生长聚类结果显示如图3所示。但是聚类达到极限,支架无法完全被聚类分割出来,如图3右图所示。其中颜色相同的是一类。从图中可以发现,所有支架并未被聚类分割出来,不满足参数的点云会出现丢失的情况,同时,主体的平面和太阳能帆板的平面不属于显著特征部分,会对配准造成一定的干扰,影响配准精度。经分析,造成聚类不够细致的原因是可视点云自身遮挡特性造成的。空间非合作目标自身的遮挡会导致部分特征发生改变甚至缺失,例如曲面的曲率发生改变、特征角点缺失等。
-
为解决上述问题,将已有深度值转换成较为直观的颜色信息,进行平滑着色,并在原有点云位置信息的基础上融合颜色信息。特征部位的空间相对位置及深度值是不变的,所以转换后的颜色信息也具有一定的不变性。平滑着色后的可视点云效果如图4所示。
平滑着色后,支架与太阳能帆板及背景具有明显色差,便可以将支架从太阳能帆板的背景色中提取出来,并将目标边界内的部分弱化,突出边界。使用颜色梯度的下降突变对RGB图像进行边界提取,提取出的边界存储在边界信息存储矩阵中,并输出边界坐标,提取效果如图5所示。
-
空间非合作目标与激光雷达的空间位置相对固定,因此在运动过程中,主体及支架边界颜色在一定范围内发生周期性变化。设置颜色阈值为R=15,G=255,B=255和R=15,G=255,B=15内的边界,剔除不需要的边界,保留目标轮廓,并输出轮廓值范围内的点的位置信息。在轮廓范围内的点,按照赋值规则进行反演,结合误差判定条件完成判定后使用原始点云数据中的深度值刷新反求的计算值,以颜色与深度信息为双重判定,输出对应原始点云数据中的x、y值。聚类结果如图6所示。与图3区域生长的聚类结果相比,帆板与支架得到了较好的分割,支架完整度提高。
使用布尔擦除法将空间非合作目标主体平面和太阳能帆板点云剔除的同时,将支架和主体上方的喷管以及前置小型信号接收天线点云合并,形成用于配准的具有较高识别度的小规模点云,如图7所示。
与原始可视点云相比,可见点云规模明显缩小,较好地保留了特征显著的部位的点云,同时空间非合作目标主体侧楞部位的点云由于其法线特征存在二义性,故得以保存,并为后续配准建立对应关系提供更多点对,对位姿解算具有矫正作用。
-
实验程序的运行条件及环境如下:CPU为Intel(R)Core(TM)i5-5200U @ 2.20GHz,在内存为4 GB的Windows 10操作系统PC机上运行。实验使用30组可视点云数据,每组数据包括当前帧全部可视点云、当前帧聚类点云和下一帧全部可视点云。
空间非合作目标仿真聚类配准实验使用文中算法与传统ICP配准算法进行配准对比实验:
(1) 使用下一帧全部可视点云和文中算法处理后的聚类点云进行逆序配准;
(2) 使用下一帧全部可视点云和当前帧的全部可视点云进行逆序配准。
对三轴平移距离及旋转角度、算法过程耗时进行统计,并依据技术指标重点对配准旋转角度结果进行误差分析。其中点特征计算环节属于前端数据处理且受硬件影响极大,在聚类过程中可直接加载调用,实际任务时可进行星上数据下载至地面大型服务器,进行离线处理,聚类、细化以及点云数据配准环节耗时稳定,因此,算法耗时包括聚类细化及配准时间。文中算法配准结果如表1所示,其中dx、dy以及dz为三轴平移距离,ax、ay以及az为三轴旋转角度。其中,三轴平移距离真值为0 mm,围绕x、z轴旋转角度真值为0°,绕y轴旋转角度真值为5.1037°。
Groups Three axis translation distance dx/mm dy/mm dz/mm 21-20 −0.4724 −0.5263 1.0306 22-21 −1.2240 0.6375 0.4955 23-22 −0.1181 −0.3058 0.7028 ... ... ... ... 48-47 0.5716 −1.0855 0.3489 49-48 −0.9771 2.6975 −0.3801 50-49 −0.1905 0.9025 −0.4344 Groups Three axis rotation angle ax/(°) ay/(°) az/(°) 21-20 −0.0067 4.4969 −0.3413 22-21 −0.2573 4.5963 0.8183 23-22 −0.2653 4.9013 1.0290 ... ... ... ... 48-47 −0.0173 4.6220 −0.2492 49-48 0.2148 4.8584 −0.0877 50-49 −0.1250 4.9179 −0.0648 Table 1. Registration results of proposed algorithm
ICP算法配准结果如表2所示。
文中算法及ICP算法配准耗时结果如表3所示。
依据技术指标要求,三轴旋转误差容忍度为±5°,三轴平移误差容忍度为±5 mm,对结果及误差进行统计与分析,统计结果如图8~11所示。
Groups Three axis translation distance dx/mm dy/mm dz/mm 21-20 0.3604 −0.3464 0.4818 22-21 0.1552 −0.6967 0.5961 23-22 0.1630 −0.2454 −0.1001 ... ... ... ... 48-47 0.0407 −0.1771 −0.4323 49-48 0.0297 −0.1239 0.2898 50-49 0.2101 0.1776 0.1921 Groups Three axis rotation angle ax/(°) ay/(°) az/(°) 21-20 −0.2088 4.8290 0.6914 22-21 −0.0787 4.7867 1.3158 23-22 0.1538 4.9692 1.0110 ... ... ... ... 48-47 0.3225 4.8553 0.2024 49-48 0.3585 4.8523 0.1457 50-49 0.4546 4.7852 0.2026 Table 2. Registration results of ICP algorithm
Groups Proposed algorithm
consumes time/sICP algorithm
consumes time/s21-20 12.9 29.5 22-21 15.9 33.3 23-22 17.4 37.5 ... ... ... 48-47 13.1 49.8 49-48 13.0 44.1 50-49 12.0 40.7 Table 3. Algorithm time-consuming comparison
由于配准过程存在方向性,且配准结果直接作用于目标三维重建,因此使用累积误差表征结果准确性,结果如表4所示:在三轴旋转角度误差为±5°的容忍范围以及三轴平移±5 mm的容忍范围内,文中算法在x、z轴方向上的累积距离误差以及围绕x、z轴旋转累积角度误差上略优于ICP算法,依据旋转和平移对整体的影响,较好旋转角度会使得平移误差减小,因此对六个参数误差赋予权重,其中三轴平移权重均为1/9,三轴旋转权重均为2/9,综合表征配准效果。文中算法综合误差为3.4945,ICP算法为3.6749。同时,文中聚类配准算法平均耗时为16.4733 s,ICP算法平均耗时为57.4536 s,因此文中聚类配准算法较ICP算法效率稳定且提高约3.5倍,整体配准效果略有提升。
Groups Three axis translation distance dx/mm dy/mm dz/mm Proposed algorithm 0.7101 2.4222 0.3235 ICP algorithm 2.0442 −0.7100 2.7629 Groups Three axis rotation angle ax/(°) ay/(°) az/(°) Proposed algorithm 0.2624 10.4549 3.2799 ICP algorithm 2.2442 4.4245 7.8200 Table 4. Registration cumulative error statistics
Improved registration algorithm for spatial non-cooperative target point cloud clustering
doi: 10.3788/IRLA20200431
- Received Date: 2020-12-12
- Rev Recd Date: 2021-02-16
- Publish Date: 2021-09-23
-
Key words:
- pose measurement /
- point cloud registration /
- cluster segmentation /
- point cloud erasuring
Abstract: The problem of relative pose measurement of non-cooperative targets in space becomes the most difficult task of the in-orbit operation task. By clustering the three-dimensional point cloud of the target obtained by Lidar, a small-scale cluster point cloud with obvious characteristics is obtained, which effectively improves the registration efficiency and precision. Aiming at the problem that clustering algorithm based on region growth can not recognize clusters with similar features when clustering visible point clouds, a method for optimizing 3D point cloud clustering with 2D images was proposed. This method established a mathematical mapping relationship between the depth value information and the RGB color value. After the point cloud dimension was reduced, the boundary was extracted using the color gradient mutation, the points within the boundary were reversely restored to the original point cloud, and finally the various types of point clouds were combined to obtain a point cloud with distinctive features that were easy to recognize. The experimental results show that under the condition of the registration angle error is ±5°, the size of the point cloud can be effectively reduced and the significant features are preserved. It provide technical support and solutions for the real-time measurement of relative pose of non cooperative targets in space.