-
将激光雷达点云数据和彩色相机像素数据统一到参考坐标系,实现两传感器校准过程主要涉及相机和激光雷达的内参标定、相机与激光雷达外参标定。本章节介绍激光雷达和相机的内参标定原理及方法,概述激光雷达与相机外参标定原理。
-
相机将输入3D场景映射为一张RGB图片,标定就是找到相关数学模型近似逼近此复杂映射过程,即展示图像和实际物理世界的关系。标定后的相机用于各种计算机视觉任务,如深度恢复、三维重建等,本质上都是对丢失距离信息的恢复,具体流程见图1。
常见的相机模型有针孔模型、透视模型、鱼眼模型和全景模型等。透视模型可认为考虑镜头畸变针孔模型的拓展,常见工业相机都采用透视模型。鱼眼模型和全景模型分别对应的是鱼眼相机和全景相机,这两类相机具有视野好、畸变大的特点。Kannala等[9]提出用入射角的奇数次泰勒展开式标定鱼眼相机,Mei[10]提出单位球投影标定全景相机,此方法同样适用鱼眼相机。
普通相机标定多用针孔模型,数学计算模型为:
式中:s为尺度因子;($ {u},{v} $)为图像像素坐标;$ \boldsymbol{K} $为相机内参矩阵;$ \boldsymbol{R} $为相机外参旋转矩阵;$ \boldsymbol{t} $为相机外参平移矩阵;($ {{X}}_{w},{{Y}}_{w},{{Z}}_{w} $)为采集点世界坐标。标定方法分为传统标定、相机自标定、主动视觉标定三种[11]。传统标定法有直接线性标定法[12]、Tasi两步法[13]和张氏标定法[14]等;自标定法主要有Kruppa方程自标定[15]、消失点自标定[16]、光束法自标定[17]等;主动视觉标定法由Ma[18]提出,通过主动系统控制相机运动实现。
从稳定性(Stability)、精确性(Accuracy)、灵活性(Flexibility)、标定速度(Speed)及是否需要标靶(Target)分析相机标定方法特点,如表1所示。Stability描述算法计算结果是否稳定,Accuracy描述计算结果精度,Flexibility描述算法对环境的依赖性,Speed描述算法计算速度,Target判断标定过程是(Y)、否(N)需要标靶。DLT表示直接线性标定法,Tasi表示Tasi两步法,Zhang表示张氏标定,Kruppa表示Kruppa方程法,VP表示消失点自标定,BA表示光束法自标定,AVC主动视图标定法。L表示低,M表示中,H表示高。
-
激光雷达是激光探测与测距系统简称。通过测定传感器发射器与目标物体之间距离,分析目标物体表面反射能量大小、反射波谱的幅度、频率和相位等信息,呈现目标精确三维结构信息[19]。激光雷达的测距原理为时间飞行法,通过测量激光脉冲在雷达和目标之间的飞行时间获取激光雷达到目标的距离信息,如公式(2)所示:
式中:$ {c} $为光空气传播速度;$ \Delta {t} $为发出到接收光波脉冲时间差。
根据激光扫描方式激光雷达可分为:机械式激光雷达(Mechanical Lidar)和固态激光雷达(Solid-State Lidar)。机械旋转激光雷达分为单线扫描激光雷达和多线扫描激光雷达;固态激光雷达又分为MEMS (Micro Electromechanical System)激光雷达、光学相控阵(Optical Phased Array, OPA)激光雷达和泛光面阵式激光雷达(Flash)。机械旋转激光雷达主要通过旋转扫描激光发射器获取周围的环境信息;MEMS激光雷达内部采用MEMS微震镜实现多密度环境感知,为半固态激光雷达(Semi-solid State Lidar);OPA和Flash激光雷达可通过一定技术实现直接获取空间三维信息,为全固态激光雷达(All-solid State Lidar)。表2为不同类型激光雷达特点[20],机械式激光雷达视野好,可实现大范围场景信息测量,技术方案成熟,为当前使用最多的激光雷达。文中以此类型雷达展示测量原理和标定方案。
No. Type Technology Advantage Disadvantage 1 Mechanical lidar Single line scanning or multi-line scanning Circular scanning, large scanning field,
mature technologyLarge volume, short life and high cost 2 Semi-solid state lidar MEMS method Size miniaturization, low cost and high accuracy Sensitive to vibration, small field of vision 3 All-solid
state lidarOPA method Silicon-based scheme, low cost The technology is not mature and the application is few 4 Flash method Small size, 360° field of view Low efficiency, immature technology Table 2. Characteristics of different type lidar
图2为多线机械式激光雷达扫描原理图。激光雷达采集初始数据为($ {{R}}_{{i}},{{\delta }}_{{i}},{\varepsilon } $),其中$ {{R}}_{{i}} $为光束$ {i} $的扫描距离;$ {{\delta }}_{{i}} $为光束$ {i} $俯仰扫描角;$ {\varepsilon } $为光束$ {i} $水平扫描角。内参是($ {{s}}^{{i}},{{\beta }}_{{i}},{{H}}_{{o}}^{{i}},{{V}}_{{o}}^{{i}}{,{D}}_{{o}}^{{i}} $),$ {{s}}^{{i}} $为光束i扫描距离的尺度因子,$ {{\;\beta }}_{{i}} $表示光束$ {i} $水平扫描角的偏差,$ {{H}}_{{o}}^{{i}} $表示光束$ {i} $原点的水平偏移,$ {{V}}_{{o}}^{{i}} $表示光束$ {i} $原点的垂直偏移,$ {{D}}_{{o}}^{{i}} $为光束$ {i} $原点与旋转轴的偏移。设点云三维坐标为($ {{x}}_{{i}},{{y}}_{{i}},{{z}}_{{i}} $),多线激光雷达数学模型构建为:
Figure 2. (a) Coordinate system of lidar; (b) Scanning range in the vertical direction (${\delta }_{\min}-{\delta }_{\max}$); (c); Scanning parameters in the vertical plane; (d) Scanning parameters on the horizontal plane
公式(3)是多线激光雷达通用数学模型,国内外学者根据此内参模型标定激光雷达内参。Glennie等[21]提出了一种基于平面特征最小二乘平差法,并将其应用于最小约束网络中,计算激光器内部标定参数最优解,标定需要在静态环境下完成。Zhu等[22]和Muhammad等[23]对比激光雷达检测值和标准平面真实值,优化激光雷达内参,区别在于前者没有考虑尺度因子$ {{s}}^{{i}} $。Bergelt等[24]提出点云到拟合平面距离偏差最小准则标定激光雷达内参,但没有用实验证实该方法。Zalud等[25]提出一种基于条件调整方程测量校准方法,并将校准结果与原厂进行比较,证明了该方法的有效性。Chan等[26]基于柱表面特征(如灯杆)的约束点云和拟合三维柱表面模型计算32线激光雷达的固有参数。Levinson 等[27]提出了一种无监督校准方法,定义能量函数标定激光雷达的内外参数。Sun等[28]通过对激光雷达点云拟合平面的非线性优化,完成64线束激光雷达内参标定。不考虑外部震动等干扰因素影响,传感器装配完成之后,内参值会被厂商给定,并保持不变,常见的标定为外参标定,即激光雷达和彩色相机的位姿关系。
-
融合激光雷达点云和相机图像数据需要对激光雷达和摄像机的相对位姿标定,其原理如图3所示。激光雷达和相机组成的标定系统包含4种坐标系,即激光雷达坐标系($ {{O}}_{{l}}-{{X}}_{{l}}{{Y}}_{{l}}{{Z}}_{{l}} $)、相机坐标系($ {{O}}_{{c}}-{{X}}_{{c}}{{Y}}_{{c}}{{Z}}_{{c}} $)、像素坐标系($ {O}-{U}{V} $)和世界坐标系($ {{O}}_{{w}}-{{X}}_{{w}}{{Y}}_{{w}}{{Z}}_{{w}} $)。激光雷达坐标系坐标点与相机坐标系坐标点的转化参数就是激光雷达和相机的外参,它们的外参计算需要找到彼此的共有特征,即同名特征,常见的特征有点、线、面特征和互信息等。
设($ {u},{v} $)为相机采集的像素坐标,($ {{x}}_{l},{{y}}_{l},{{z}}_{l} $)激光雷达的点云坐标,相机内参为$ \boldsymbol{K} $,此为已知数据。$ {\boldsymbol{R}}_{\mathit{l}}^{\mathit{c}}{、}{\boldsymbol{t}}_{\mathit{l}}^{\mathit{c}} $为激光雷达到相机的旋转和平移矩阵,此为未知数据。激光雷达与相机外参标定原理为:
-
激光雷达和相机融合实现三维重建过程中采集的初始数据是单传感器模型下各自的数据类型,即点云数据和图像数据。为实现两传感器的特征匹配,需要分别对单传感器模型采集的数据处理,然后完成激光雷达和相机位姿匹配。激光雷达和相机外参标定的主要内容包括:点云处理、图像处理、激光雷达和相机外参标定,如图4所示。
-
实际工程案例中,激光雷达采集的点云会由于设备、环境等因素影响分布杂乱并呈现噪声。为准确获取与图像对应的同名数据,需要对点云处理。点云处理方法包括:预处理、分割、特征提取等[29]。预处理包括滤波、精简、分割等,目的是排除干扰、平滑点云、精简点云。为得到最佳效果,预处理的顺序可以调整或反复叠加。滤波具有排除干扰和提取特征的功能,常见滤波方法有:高斯滤波、直通滤波、条件滤波等[30-31]。
点云分割获取与图像重合的特征区域,常见的分割方法有:点云几何属性(如点距离、法线方向和曲率等[32])、聚类分割(K均值聚类[33]、密度聚类[34]和均值漂移聚类[35]等)、颜色特征(RGB值和颜色直方图[36])、深度学习(卷积神经网络、图卷积神经网络等模型[37])、形状特征(向量场直方图)。
特征提取是对分割后区域提取与图像对应的同名特征。点云特征提取可分两种形式进行:第一种是直接特征提取,利用体素网格、关键点检测、法线和点云估计等方法提取特征;第二种是间接特征提取,将点云数据转换成深度图和距离图,利用图像处理的方法提取特征。
-
相机采集的图片也需要处理得到与点云对应的同名特征,处理方法有:滤波、分割、特征提取等[38]。滤波具有去除图像噪音,增强特征细节作用,常见图像滤波有均值滤波、中值滤波和高斯滤波等[39]。图像分割是寻找和点云对应的同名特征所在区域,常见分割方法有:阈值分割[40]、边缘检测(Sobel算子[41],Canny算子[42])、区域生长[43]、分水岭算法[44]等。图像特征包括边缘特征、角点检测和纹理特征等,提取特征时需要图像灰度转换和图片增强等处理。
-
激光雷达和相机位姿配准是三维离散点和二维连续点的复杂性匹配问题,是当前自动驾驶、移动机器人技术、三维空间重建等领域研究的重点。为准确分析激光雷达和相机外参标定研究成果,本章节从基于标靶标定、基于无标靶标定、基于运动标定和基于深度学习标定四方面对现有研究成果归纳总结,如图5所示。
-
基于标靶标定是指手动或自动在自然环境中寻找标靶,提取标靶特征建立模型完成激光雷达和相机外参标定。有标靶标定外参选用的同名特征有点特征、线特征、面特征或者混合特征。点特征有2D-3D点和3D-3D点。常用标靶有三角板、ArUco标定板、球体、立方体等,基于标靶标定可细分为:棋盘格二维标靶、非棋盘格二维标靶、其他三维标靶。
1) 棋盘格二维标靶标定
图6所示为棋盘格的两种形式:有边框和无边框。棋盘格标靶角点明显,标定精度高,容易制作,是最常用的激光雷达和相机外参标定标靶。华盛顿大学Zhang等[45]利用点在面上几何约束首次完成二维激光雷达和相机外参标定,模拟仿真证明该方法位移误差为2.37 cm。Unnikrishnan等[46]基于Zhang方法[45]标定三维激光雷达和相机的外参。但该方法无法在复杂点云环境准确提取棋盘格点云数据,影响标定精度。针对Zhang方法不足,后续学者进行了改进,改进内容多体现为棋盘格位姿摆放和约束模型改进。Geiger等[47]在同一场景中放置多个标定板,一次拍摄完成外参标定,且提出基于生长角点检测实现亚像素级测量。该方法标定过程繁琐,标定结果受到棋盘格位姿影响。陈远等[48]利用点和平面特征对点云组团,利用点云总平均值提高计算精度。该方法修改初始数据,计算结果失真。韩正勇等[49]将外参标定转换为三维空间旋转、缩放矩阵求解问题,模拟仿真证明该方法旋转误差均方根值为$ 0.37\times {10}^{-2}\; \mathrm{r}\mathrm{a}\mathrm{d} $,平移误差均方根值为1.67 cm。该方法要求不同视角棋盘格位姿不能平行,且棋盘格平面不过激光雷达原点,应用范围受限。魏克全等[50]优化靶标摆放位置,减小位置随意摆放影响标定精度。实验部分计算点云投影后的边缘与标定板边缘最大偏移像素值评价标定误差,只需4个位姿可达垂直10 pixel,水平14 pixel标定精度,整体标定精度提高并不明显。除以上之外,李琳等[51]利用棋盘格法向量、项志宇等[52]利用传感器原点到靶标平面距离、李红帅等[53]改进LM优化模型、康国华等[54]提取多标定板中心点、Zhou[55]拟合棋盘格顶点等完成激光雷达和相机内参标定。
2) 非棋盘格二维标靶
为更准确提取标靶特征,提升标定精度,各国学者设计了各种易于识别特征的二维标靶用于激光雷达和相机外参标定,图7为部分非棋盘格二维标靶示例。董方新等[56]设计镂空棋盘标定板,如图7(a)所示,高效计算关键点坐标实现标定任务。但该方法需要稠密的点云数据。俞德崎等[57]利用ArUco标签,如图7(b)所示,确定标定板在激光坐标系与相机坐标系间关系,通过随机采样一致性算法提取标定板角点坐标并建立对应关系方程,最后使用Kabsh算法求解配准参数。韩国学者Ha[58]设计一款中空为三角孔的棋盘格,如图7(c)所示,利用点扫描线在平面板内外边缘4个交点构建关键点完成标定。实验部分通过计算点云与相机点云投影距离评价标定精度,精度可达26.3 mm,标定结果受孔位置和尺寸的影响。Beltrán等[59]设计一款四角ArUco码与中间4个镂空圆结合的标定板,如图7(d)所示,ArUco码确定标定板在相机坐标系的位置,以此位姿计算4个镂空圆心所在相机坐标系的坐标,结合镂空圆心点云坐标计算得到激光雷达和相机外参。实验部分利用不同类型相机和激光雷达标定结果对比,平移误差精度最高达1.12 cm,旋转误差精度达$ 0.34\times {10}^{-2}\;\mathrm{r}\mathrm{a}\mathrm{d} $,该方法对标定板背景要求高。Debattisti等[60]利用多个三角形标定板完成校准,设计虚拟三角板掩膜贴合点云数据提取同名点实现外参标定。但标定环境为室外导致标定精度不高。黄志清等[61]设计单侧透光镂空标定、邓志红等[62]使用特殊镂空棋盘格等二维标靶完成外参标定工作。
3) 其他三维标靶
二维标靶标定激光雷达和相机外参过程丢失空间Z轴约束,计算结果可能造成过拟合,影响标定效果。为解决此问题,各国学者设计了三维标靶对激光雷达和相机外参标定。Chen等[63]使用正立方体棋盘格,不同视角下构建点线约束建立三维特征点到图像边缘参数方程解算标定参数。但该方法需要提取立方体边界三维点,稀疏点云环境中标定效果不理想。Dong等[64]制作特殊非共面V型标定板,提出最小化点到平面距离来获得外参值。该方法对标定物制作精度要求高,增加标定工作量和难度。Pusztai等[65]在自然场景中放置已知尺寸的箱体,计算点云3个相交平面顶点,在箱体尺寸已知条件下得到其他6个角点,以此关键点完成标定。该方法要求箱体7个角点都位于相机和激光雷达视野中,对箱体位姿摆放要求高。最近Fan等[66]设计一款球和空心标定板结合的复合型标定物,利用空心标定板边缘线特征计算初始值,利用球心坐标投影迭代完成标定。该方法平移精度达到0.011 m,旋转误差为0.07°,但方法计算流程复杂,计算效率低。除此之外还有V型棋盘格[67]、对折平面板[68]、球[69]、网格标定物[70]等。这些特殊三维标靶标定结果精度高,但都有特定的应用场景,不具有通用性。
基于标靶标定可以较容易获取激光雷达和相机的同名特征,计算方法成熟稳定,标定结果精度高。由于该类型标定需要在场景中放置标靶,适用于在静态环境中的离线标定。当传感器间位姿由于抖动等外因发生变化时,需要重新标定,增加标定工作的复杂性。同时该类型标定多需要手工干预,比如摆放标靶位置、裁剪特征点云、标记同名特征等,这为标定工作带来不稳定性,降低标定效率。
-
无标靶标定是指利用自然场景边缘信息或者图像灰度值与点云强度值的联系完成激光雷达和外参标定。无标靶标定不需要在场景中摆放标靶,标定过程简单,可实现在线标定。可细分为:基于特征信息标定和基于互信息最大化标定。
1) 基于特征信息标定
基于特征标定要求相机和激光雷达有重叠的视野,主要针对特征信息明显的环境。常见的特征有区域特征和关键点特征。标定流程是在图像和点云中均找到特定语义区域(如物体边缘、障碍物等),构建目标函数,迭代优化得到外参。Moghadam等[71] 利用自然场景的面交线和边界线特征建立3D-2D线对应关系计算外参。该方法实验部分将点云重投影到图像中,计算均方根误差最高1.85 pixel,标定精度不高,并且对应用场景有十分严格的限制。Scaramuzza等[72]生成点云距离图,根据点云距离图和图像的同名点特征得到标定结果。此方法平均重投影误差为1.6 pixel,标准差为1.2 pixel,但其通过观察选择特征点,计算结果不稳定。Gomez-Ojeda等[73]利用三面正交的场景获取角点,根据点在线、线在面的几何关系构建模型完成标定。该方法计算结果准确,旋转矩阵精度0.292 7°,平移矩阵精度0.426 9 cm,但只能用于含正交三面体的标定环境,影响通用性。Bai等[74]通过激光雷达和相机各坐标系中存在平行线对应的3D-2D消失点得到旋转矩阵,点在线上的约束得到平移矩阵。该方法应用的场景要求具有平行线特征。Kang等[75]利用高斯混合模型框架建立多边缘特征对齐成本函数,通过成本函数极值最小完成标定工作,但边缘特征提取和匹配比较麻烦。Levinson等[76]将点云的深度不连续边界和图像边缘进行匹配。该方法适用于小范围内暴力搜索,搜索范围小。Yuan等[77]提出固定大小体素化、Liu等[78]提出自适应体素化来提取点云深度不连续边界,Wang等[79]提取分割的点云和图像中心,完成激光雷达和相机标定。
2) 基于互信息最大化
基于互信息的标定方案是建立激光雷达的强度信息(受激光雷达发射率或者激光雷达发射角影响)和相机图像的灰度值信息关联,使互信息值最大得到的结果就是激光雷达和相机的外参。Abedini等[80]利用SIFT(Scale-Invariant Feature Transform)算法从航空图像和激光雷达强度数据中提取相关信息,匹配图像灰度值和点云强度信息完成外参标定,对点云噪音有一定鲁棒性。Pandney等[81-82]通过激光雷达所测反射率与图像灰度值相关系数,使两者间联合直方图分散最小获得外参标定。在单目相机和激光雷达系统、全向相机和激光雷达系统及单目相机和二维激光雷达系统中分别进行了验证,标定精度易受环境光照影响。Taylor等[83]认为相机图像点对应的三维点法线与相机之间的夹角影响反射强度。通过计算激光雷达点云反射率与上述相机图像点对应角度之间的互信息进行标定,最后利用粒子群算法优化计算。该方法应用于遥感测绘领域中,对不同数据集精度从0.3~1.4 m不等,点云稀疏性和数据源不一致,该标定方法误差较大。宋文松等[84]根据强度关系将点云转化为灰度图,然后提取点云灰度图和相机图同名特征点,匹配计算得标定结果。
无标靶标定不依赖特定标靶,从自然环境中提取特征信息完成标定。该方法应用灵活,简化标定。但相比于有标靶标定,无标靶标定的精度低,标定结果易受环境信息干扰,稳定性不足。在复杂场景或光照干扰前提下,无标靶标定结果容易出现错误。无标靶标定需要在特定环境下的特定场合进行标定,通用性有待提升。无标靶标定多用自动驾驶大场景信息感知领域,通常采用惯性测量单元配合提高标定精度和鲁棒性。
-
基于运动标定将相机和激光雷达外参校准视为手眼标定问题,不要求相机和激光雷达有视野重叠,通过传感器的一串移动序列反解标定参数,建模为齐次变换方程的求解问题。基于运动标定属于特殊无标靶标定,多应用于工业机器人领域。该类型标定得到的解存在不同的形式,如四元数形式、对偶四元数形式以及螺旋运动和螺旋轴形式。该方法没有充分考虑测量值不确定性,导致标定精度易受传感器噪声影响,标定精度依赖于环境特征信息,通常采用边缘检测等方式得到特征间对应关系。
Huang 等[85]提出一种基于Gauss-Helmert估计范式的校准方法,并给出了多传感器运动约束公式。相比于传统最小二乘算法,不仅校准了外部参数,还给出对应位姿观测误差,稳定性和精确性高。Taylor等[86]提出了一套适用于任何系统由激光雷达、相机和导航传感器构成的校准方法。首先对每个传感器的连续帧进行校准,然后利用传感器之间联系实现外部参数校准。Ishikawa等[87]利用光流追踪法跟踪激光雷达在图像平面上的投影点,通过投影误差不断优化缺乏尺度信息的平移向量,标定精度比Taylor等[86]方法高。Zhao等[88]利用相机前后帧图像对城市场景进行三维重建并计算姿态变化,计算激光雷达点云前后帧的最近邻点,得到点云空间变化。杨超等[89]将标定问题建模为观测与预测之间的非线性模型,利用非线性最小二乘方案进行求解,通过误差最小化计算外参。Nedevschi等[90]利用特征匹配检测车辆行使过程传感器之间的偏移量,通过距离变换检测图像边缘特征,将点云转为距离图像提取边缘信息,根据对应边缘信息建立函数调节外参。标定精度中3个方向的平移误差为(0.002, 0.015, −0.005) m,3个轴的旋转误差为(−0.016°, 0.002°, 0.01°)。基于运动标定方法多用于估计初始值或大场景环境下传感器外参调整,标定精度不高。
-
随着深度学习技术的快速发展,近几年多位学者将其应用于激光雷达与相机外参标定。设计目标函数评价投影后的雷达特征和图像相应特征匹配情况,利用优化方法更新初始外参,逐步迭代改善匹配效果,取匹配效果最好的数据作为标定结果。深度学习特征提取和特征匹配的过程由训练替代,可以根据搜索的数据更新标定结果,相比传统标定方法,自动化程度更高。
深度学习用于激光雷达和相机外参标定是热门研究领域。卡尔斯鲁厄理工学院的Schneider等[91]第一次将深度学习算法用于解决激光雷达和相机外参标定问题。通过构建的RegNet神经网络分别提取相机图像和激光雷达点云,然后回归计算,完成标定任务。该方法平均角度误差为0.28°,平均移动误差为6 cm,但程序没有开源,最后的验证难以复现。Iyer等[92]设计几何监督深度网络CalibNet,可以实时自动估计3D激光雷达与2D摄像机之间的6自由度刚体变换,减少对校准目标的需求,提高了校准效率,该方法旋转误差0.41°,平移误差4.34 cm。Yuan等[93]提出基于RGGNet的激光雷达和相机外参标定方法,考虑黎曼几何,利用深度生成模型学习隐式容差模型。该方法不仅考虑标定误差,还考虑误差范围内容差,标定效果较好。Lv等[94] 借鉴RegNet和CalibNet深度学习框架,在Loss函数中引入点云距离而计算点云几何结构信息,实现直接输入点云和图像原数据进行端到端训练,是一种精度比较高的在线评定方法。基于深度学习的标定还有CMRNet[95]、CalibRCNN[96]、CalibDNN[97]、CFNet[98]、DXQ-Net[99]、PSNet[100]、ATOP[101]等框架方案。基于深度学习标定是最近几年提出的激光雷达和相机外参解决方案,不需要预先处理点云和图像特征,只需将数据提交神经网络节点寻找潜在关系,可建立两传感器端到端间映射关系。现有深度学习框架下的标定方法多为无监督学习或半监督学习,泛化能力有待提高。
以上内容为激光雷达与相机外参标定方法的研究现状,文中从有、无标靶等多方面对现有文献阐述说明。为避免不同标定方法交叉,用基于标靶特征(Target Feature)、基于运动(Motion)、基于互信息(Mutual Information)、基于深度学习(Deep Learning)4个方面分析现有标定方法的特点,具体情况如表3所示。Accuracy 表示标定精度,Automaticity 表示自动化性,L表示低,M表示中,H表示高。
Target feature Motion Mutual information Deep learning Characteristic Require targets, then calculate pnp based on features Hand-eye calibration, the accuracy depends on motion estimation of the sensors Correlating image grayscale values with point reflectance, and specific applications extensive training and poor generalization Accuracy H L M M Automaticity L M M H Table 3. Characteristics of different methods for lidar-camera extrinsic calibration
Advancements in fusion calibration technology of lidar and camera
doi: 10.3788/IRLA20230427
- Received Date: 2023-06-15
- Rev Recd Date: 2023-07-10
- Publish Date: 2023-08-28
-
Key words:
- sensor calibration /
- lidar /
- point cloud processing /
- camera calibration /
- data fusion
Abstract: