留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于联合相机路径的红外视频稳像算法

尹丽华 杭娟 康亮 刘士建

尹丽华, 杭娟, 康亮, 刘士建. 基于联合相机路径的红外视频稳像算法[J]. 红外与激光工程, 2021, 50(6): 20200405. doi: 10.3788/IRLA20200405
引用本文: 尹丽华, 杭娟, 康亮, 刘士建. 基于联合相机路径的红外视频稳像算法[J]. 红外与激光工程, 2021, 50(6): 20200405. doi: 10.3788/IRLA20200405
Yin Lihua, Hang Juan, Kang Liang, Liu Shijian. Infrared video image stabilization algorithm based on joint camera path[J]. Infrared and Laser Engineering, 2021, 50(6): 20200405. doi: 10.3788/IRLA20200405
Citation: Yin Lihua, Hang Juan, Kang Liang, Liu Shijian. Infrared video image stabilization algorithm based on joint camera path[J]. Infrared and Laser Engineering, 2021, 50(6): 20200405. doi: 10.3788/IRLA20200405

基于联合相机路径的红外视频稳像算法

doi: 10.3788/IRLA20200405
基金项目: 上海第二工业大学学科基金(XXKZD1605);上海第二工业大学校基金(EGD19XQD11);校企合作汽车电子联合实验中心建设项目(A11NH190704)
详细信息
    作者简介:

    尹丽华,女,讲师,博士,主要研究方向为红外光电系统工程及信息与图像处理技术。

  • 中图分类号: TP391.41

Infrared video image stabilization algorithm based on joint camera path

  • 摘要: 针对由于视差变化而导致的红外视频稳像技术难题,文中提出了一种基于联合相机路径的红外视频稳像算法,该算法主要包括:预处理、联合相机路径求解、多路径优化、运动补偿四个步骤。首先,要对红外图像进行直方图均衡化、特征点提取和匹配处理、预映射。接着,要将每帧图像分为m×n个网格单元,利用基于网格的映射运动表征,将每一帧中对应网格得到的局部单应性矩阵进行相乘得到联合相机路径。然后,对联合相机路径采用“多路径优化”策略进行平滑处理。最后,利用平滑后路径进行运动补偿稳定视频。实验结果表明,该方法能有效地处理由于视差而引起的非线性运动,相比传统的稳像算法效果更好,当特征点存在部分遮挡时,也能取得不错的稳像效果。
  • 图  1  基于联合相机路径的红外视频稳像算法流程

    Figure  1.  Process of infrared video image stabilization algorithm based on joint camera path

    图  2  基于网格映射的运动模型。(a) 两帧图像网格之间的对应关系;(b) 形状保持约束

    Figure  2.  Motion model based on grid mapping. (a) Correspondence between two frames of image grids; (b) Shape retention constraints

    图  3  联合相机路径求解过程的示意图。(a)网格的路径迭代;(b)初始相机路径C(t)、平滑路径P(t)、补偿路径B(t)之间的关系

    Figure  3.  Schematic diagram of the joint camera path solution process. (a) Path iteration of the grid; (b) Relationship among the initial camera path C(t), smooth path P(t), and compensation path B(t)

    图  4  图像特征点集丰富和较少情况下的稳像结果对比。(a)特征点集丰富;(b)特征点集较少

    Figure  4.  Comparison of image stability results in the case of abundant feature points and few feature points. (a) Rich feature point set;(b) Less feature point set

    图  5  图像对应的联合相机路径和优化后的路径。(a)图像帧间的对应网格;(b)路径优化前后的结果:左边第(1, 1)个网格,右边第(1, 1)个网格

    Figure  5.  Image corresponds to the joint camera path and the optimized path. (a) Corresponding grids between image frames; (b) Results before and after path optimization: the left side is the (1, 1) grid, and the right side is the (1, 1) grid

    图  6  第二项约束加入前、后的平滑效果。(a)原图像;(b)未加第二项约束;(c)文中的结果

    Figure  6.  Smoothing results before and after adding the second restraint. (a) Original image; (b) Without the second restraint; (c) Result in this paper

    图  7  文中算法实现的伪代码

    Figure  7.  Pseudo code of the algorithm in this paper

    图  8  单路径和联合路径的稳像结果对比。(a)路径优化结果;(b)稳像后图像:左边为单路径,右边为联合路径

    Figure  8.  Comparison of image stability results between single path and joint path. (a) Path optimization results; (b) Image after image stabilization: the left side is the single path, and the right side is the joint path

    图  9  Driving类视频下多种稳像算法的结果对比。(a)原图像;(b) L1算法;(c) AE系统;(d)朱娟娟电子稳像算法;(e)文中算法

    Figure  9.  Comparison of results of various image stabilization algorithms under the Driving type video. (a) Original image; (b) L1 algorithm; (c) AE system; (d) Zhu Juanjuan's electronic image stabilization algorithm; (e) Proposed algorithm

    图  10  Zooming类视频下多种稳像算法的结果对比。(a)原图像;(b) L1算法;(c) AE系统;(d)朱娟娟电子稳像算法;(e)文中算法

    Figure  10.  Comparison of results of various image stabilization algorithms under the Zooming type video. (a) Original image; (b) L1 algorithm (c) AE system; (d) Zhu Juanjuan's electronic image stabilization algorithm; (e) Proposed algorithm

    图  11  几种稳像算法在七组视频下的定量评价结果。(a) Simple;(b) Rotation;(c) Zooming;(d) Parallax;(e) Driving;(f) Crowd;(g) Running

    Figure  11.  Quantitative evaluation results of several image stabilization algorithms under seven sets of videos. (a) Simple; (b) Rotation; (c) Zooming; (d) Parallax; (e) Driving; (f) Crowd; (g) Running

    表  1  不同网格单元尺寸下的视频稳像结果

    Table  1.   Video image stabilization results under different grid cell sizes

    Grid cell sizeRun model estimate time/sStability
    3×30.9880.65
    7×71.1550.72
    9×91.4430.78
    16×162.1650.86
    32×3213.2610.87
    64×64370.5380.83
    下载: 导出CSV
  • [1] Li Bing. Research on key technology of infrared panoramic searching system[D]. Beijing: University of Chinese Academy of Sciences, 2017: 32-56. (in Chinese)
    [2] Zhang Haojun. Research on key technologies for infraread image restoration, video stabilization and imaging system based on embedded system[D]. Beijing: University of Chinese Academy of Sciences, 2012: 63-74. (in Chinese)
    [3] Yin Lihua. Study on key technology of panoramic image stabilization based on vehicle-mounted platform[D]. Beijing: University of Chinese Academy of Sciences, 2018: 10-50. (in Chinese)
    [4] Chen Xiaolun. Study on digital image stabilization technology for aerial opto-electric imaging system[D]. Beijing: University of Chinese Academy of Sciences, 2014: 57-89. (in Chinese)
    [5] Chen Y B, Lee K Y, Huang W T, et al. Capturing intention based full-frame video stabilization [J]. Computer Graphics Forum, 2008, 27(7): 1805-1814. doi:  10.1111/j.1467-8659.2008.01326.x
    [6] Matsushita Y, Ofek E, Tang X, et al. Full-frame video stabilization with motion inpainting. [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2006, 28(7): 1150-1163. doi:  10.1109/TPAMI.2006.141
    [7] Grundmann M, Kwatra V, Essa I, et al. Auto-directed video stabilization with robust L1 optimal camera paths[C]//IEEE Conference on Computer Vision and Pattern Recognition 2011. IEEE Computer Society, 2011: 225-232.
    [8] Zhu Juanjuan, Fan Jing, Guo Baolong. Adaptive electronic image stabilization algorithm resistant foreground moving object [J]. Acta Photonica Sinica, 2015, 44(6): 0610002. (in Chinese) doi:  10.3788/gzxb20154406.0610002
    [9] Rublee E, Rabaud V, Konolige K, et al. ORB: An efficient alternative to SIFT or SURF[C]//IEEE International Conference on Computer Vision, 2011: 2564-2571.
    [10] Yu Jianguo, Xu Rentong, Chen Yu. Image stitching technology based on ORB improved RANSAC algorithm [J]. Journal of Jiangsu University of Science and Technology (Natural Scinece Edition), 2015, 29(2): 164-169.
    [11] Qiu Jiatao. A study of electronic image stabilization algorithms and visual tracking algorithm[D]. Xi'an: Xidian University, 2013: 60-82. (in Chinese)
    [12] Xie Yajin, Xun Zhihai, Feng Huajun, et al. Real-time video stabilization based on minimal spaning tree and modified kalman filter [J]. Acta Photonica Sinica, 2018, 47(1): 65-74. (in Chinese)
    [13] Buehler C, Bosse M, McMillan L. Non-metric image-based rendering for video stabilization[C]//Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. CVPR 2001, 2001: 991019.
    [14] Liu F, Gleicher M, Jin H, et al. Content-preserving warps for 3D video stabilization[J]. ACM Transactions on Graphics, 2009, 28(3): 80032.
    [15] Liu F, Gleicher M, Wang J et al. Subspace video stabilization [J]. ACM Transactions on Graphics, 2011, 30(1): 4-10.
    [16] Huynh L, Choi J, Medioni G. Aerial implicit 3D video stabilization using epipolar geometry constraint[C]//2014 22nd International Conference on Pattern Recognition: IEEE, 2014: 3487-3492.
    [17] Liu S C, Yuan L, Tan P, et al. Bundled camera paths for video stabilization [J]. Acm Transactions on Graphics, 2013, 32(4): 1-10.
    [18] Guo H, Liu S, Zhu S, et al. Joint bundled camera paths for stereoscopic video stabilization[C]//2016 IEEE International Conference on Image Processing (ICIP), IEEE, 2016: 1071-1075.
    [19] Liu S, Yuan L, Tan P, et al. Steady flow: spatially smooth optical flow for video stabilization[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2014: 4209-4216.
    [20] Wang M, Guo Y, Jin K, et al. Deep online video stabilization with multi-grid warping transformation learning [J]. IEEE Transactions on Image Processing, 2019, 28(5): 2283-2292. doi:  10.1109/TIP.2018.2884280
  • [1] 刘雨晴, 孙洪波.  非线性激光制造的进展与应用(特邀) . 红外与激光工程, 2022, 51(1): 20220005-1-20220005-15. doi: 10.3788/IRLA20220005
    [2] 杜俊廷, 常冰, 李照宇, 张浩, 秦琛烨, 耿勇, 谭腾, 周恒, 姚佰承.  中红外光学频率梳:进展与应用(特邀) . 红外与激光工程, 2022, 51(3): 20210969-1-20210969-15. doi: 10.3788/IRLA20210969
    [3] 邵光灏, 刘昂, 翟计全, 张国强.  光波束形成中色散延时的非线性修正 . 红外与激光工程, 2021, 50(7): 20210235-1-20210235-6. doi: 10.3788/IRLA20210235
    [4] 李小晗, 陈璐, 周翔.  基于视差和条纹调制度分析的多物体场景分割 . 红外与激光工程, 2020, 49(6): 20200085-1-20200085-8. doi: 10.3788/IRLA20200085
    [5] 常存, 隋净蓉, 常青, 张东帅.  CdTe和CdS量子点的非线性特性对比 . 红外与激光工程, 2018, 47(3): 306004-0306004(6). doi: 10.3788/IRLA201847.0306004
    [6] 左维康, 朱亚丹, 邱敏, 刘继桥, 陈卫标.  APD探测器的性能对激光雷达反演CO2浓度误差影响研究 . 红外与激光工程, 2018, 47(4): 406002-0406002(7). doi: 10.3788/IRLA201847.0406002
    [7] 康子建, 谷一英, 朱文武, 范峰, 胡晶晶, 赵明山.  利用DFB激光器非线性的高线性射频光传输链路 . 红外与激光工程, 2016, 45(8): 806004-0806004(5). doi: 10.3788/IRLA201645.0806004
    [8] 贺静波, 许江湖.  无色散光纤信道的非线性演化 . 红外与激光工程, 2016, 45(4): 422004-0422004(5). doi: 10.3788/IRLA201645.0422004
    [9] 李海超, 满益云.  基于非均匀同区域线性CCD成像的卫星姿态调整与非线性定标方法 . 红外与激光工程, 2015, 44(4): 1370-1376.
    [10] 李实秋, 雷建军, 周志远, 张海龙, 范晓红.  基于SIFT 匹配的多视点立体图像零视差调整 . 红外与激光工程, 2015, 44(2): 764-768.
    [11] 闫高宾, 于佳, 刘惠萍, 阚凌雁, 王金城.  基于计算全息的全视差合成全息研究 . 红外与激光工程, 2015, 44(8): 2467-2471.
    [12] 雷景丽, 晏祖勇, 李晓晓, 刘延君, 武刚, 侯尚林.  近零超平坦色散填充光子晶体光纤的温度特性 . 红外与激光工程, 2015, 44(12): 3740-3743.
    [13] 柯熙政, 邓莉君.  半导体激光器的非线性失真特性及预失真补偿研究 . 红外与激光工程, 2015, 44(11): 3204-3210.
    [14] 高强, 金杰, 沈丽丽, 侯春萍.  使用EEG分析水平视差对3D图像舒适性的影响 . 红外与激光工程, 2014, 43(12): 4140-4145.
    [15] 潘雄, 张春生, 王夏霄, 王熙辰, 赵亚飞, 王定球.  反馈延迟对光纤陀螺振动误差特性的影响 . 红外与激光工程, 2014, 43(8): 2607-2612.
    [16] 杨一帆, 田雁, 杨帆, 黄彪.  基于改进Mean-Shift 算法的红外小目标跟踪 . 红外与激光工程, 2014, 43(7): 2164-2169.
    [17] 刘永兴, 张培晴, 戴世勋, 王训四, 林常规, 张巍, 聂秋华, 徐铁峰.  中红外硫系光子晶体光纤参量放大特性模拟研究 . 红外与激光工程, 2014, 43(2): 511-516.
    [18] 左林, 杨爱英, 赖俊森, 孙雨南.  非线性偏振旋转锁模光纤激光器数值模型 . 红外与激光工程, 2013, 42(1): 57-62.
    [19] 杨咚, 余伟.  Sage_Husa自适应滤波在大方位失准角初始对准的研究 . 红外与激光工程, 2013, 42(8): 2197-2201.
    [20] 赵菲, 卢焕章, 张志勇.  滑动窗口核岭回归运动目标轨迹预测算法 . 红外与激光工程, 2013, 42(3): 829-835.
  • 加载中
图(11) / 表(1)
计量
  • 文章访问数:  366
  • HTML全文浏览量:  197
  • PDF下载量:  37
  • 被引次数: 0
出版历程
  • 收稿日期:  2021-01-02
  • 修回日期:  2021-04-22
  • 刊出日期:  2021-06-30

基于联合相机路径的红外视频稳像算法

doi: 10.3788/IRLA20200405
    作者简介:

    尹丽华,女,讲师,博士,主要研究方向为红外光电系统工程及信息与图像处理技术。

基金项目:  上海第二工业大学学科基金(XXKZD1605);上海第二工业大学校基金(EGD19XQD11);校企合作汽车电子联合实验中心建设项目(A11NH190704)
  • 中图分类号: TP391.41

摘要: 针对由于视差变化而导致的红外视频稳像技术难题,文中提出了一种基于联合相机路径的红外视频稳像算法,该算法主要包括:预处理、联合相机路径求解、多路径优化、运动补偿四个步骤。首先,要对红外图像进行直方图均衡化、特征点提取和匹配处理、预映射。接着,要将每帧图像分为m×n个网格单元,利用基于网格的映射运动表征,将每一帧中对应网格得到的局部单应性矩阵进行相乘得到联合相机路径。然后,对联合相机路径采用“多路径优化”策略进行平滑处理。最后,利用平滑后路径进行运动补偿稳定视频。实验结果表明,该方法能有效地处理由于视差而引起的非线性运动,相比传统的稳像算法效果更好,当特征点存在部分遮挡时,也能取得不错的稳像效果。

English Abstract

    • 基于运动平台的各种类型成像系统在红外探测方面发挥了重要作用[1-2],受到平台振动的影响,会影响后续的目标识别或跟踪,所以,迫切需要通过稳像技术[3]来去除视频抖动。数字视频稳像的步骤一般包括:运动估计->路径平滑->利用平滑路径合成稳定的视频[4]。根据运动模型的不同,传统视频稳像算法分为两类,即:

      (1)基于2D的视频稳像方法

      通过估计连续视频帧之间的2D线性转换,并随时间对其进行平滑以生成稳定的视频,目前主要着重于对路径平滑算法的研究。最常用的技术手段是采用低通滤波器或卡尔曼滤波器法用于相机运动路径的平滑;Chen采用多项式拟合法对运动路径进行平滑[5];后来,Matsushita等人提出利用高斯加权函数对全局运动参数进行运动平滑[6],减少了累积误差。最近,Grundmann应用L1范数[7]优化生成一个包含常量、线性和抛物线运动的摄像机路径,这些运动遵循了电影的摄影规则。

      国内对于2D视频稳像技术也有一定研究[8-10],如朱娟娟提出了抗前景干扰的电子稳像算法[8],通过自上向下的金字塔进行由粗到细的运动估计;邱家涛提出基于ORB[9-12]特征的稳像算法[9],相对于传统的SIFT、SURF特征点提取算法,实时性更好;2018年谢亚晋等人提出基于最小生成树和运动矢量对的视频稳像算法[10],能剔除运动前景的干扰。

      (2)基于3D的视频稳像方法

      通过估计3D空间中的相机运动以保持稳定。Beuhler使用未经校准的摄像机对场景进行3D投影重建来实现稳定化[13]。Liu开发了3D视频稳定化系统[14],引入“内容保留”变形来稳定视频。由于3D重建很难,后来采用二维特征轨迹上应用低秩子空间约束[15],或加入极间转移技术[16],这些方法将三维重建的要求放宽到二维长特征跟踪。

      当相机拍摄视频时不可避免地存在拍摄角度的变化,比如大幅度的旋转、缩放或前进,均会导致图像的深度发生变化,引起视差,对应的图像运动模型也更加复杂。3D视频稳像方法虽然能处理视差,但对各种退化(如特征跟踪失败)鲁棒性较低,2D视频稳像方法更加稳健[17-18],但单一2D线性运动模型无法从根本上处理视差[19-20]。因此,文中提出了一种基于联合相机路径的红外视频稳像算法,创新点主要体现在两个方面:一、运动估计:对红外图像进行预处理,将图像进行网格划分,采用基于网格映射的运动表征图像运动信息,这是一种更强大的2D运动模型,并加入“形状保持约束”来增加泛化能力;二、路径平滑:通过多路径优化策略来优化相机路径,是一种时空路径的优化方法,综合解决了由于视差变化导致的稳像技术难题。

    • 图1为基于联合相机路径的红外视频稳像算法流程。该算法主要包括:预处理、联合相机路径求解、多路径优化、运动补偿,基本步骤如下:

      图  1  基于联合相机路径的红外视频稳像算法流程

      Figure 1.  Process of infrared video image stabilization algorithm based on joint camera path

      (1) 输入红外视频,对红外图像进行直方图均衡化、ORB特征点提取和匹配,利用RANSAC算法[12]从两种尺度上剔除异常的匹配点对,并进行预映射。

      (2) 将原始视频帧分成m×n的网格单元,利用基于网格映射的运动模型来表征相机的运动,在目标函数中增加“形状保持”约束,估算网格的顶点向量;然后,利用映射前、后的顶点向量,求解出单应性矩阵${{{F}}_i}\left( t \right)$,通过累乘得到联合相机路径,假设${C_i}\left( t \right)$为第$t$帧图像第i个网格的联合相机路径,其公式为:

      $$ {C}_{i}\left(t\right)\!=\!{C}_{i}\left(t\!-\!1\right){F}_{i}\left(t\!-\!1\right),\Rightarrow {C}_{i}\left(t\right)\!=\!{F}_{i}\left(0\right){F}_{i}\left(1\right)\cdots {F}_{i}\left({{t\!-\!1}}\right)$$ (1)

      式中:$\left\{{F}_{i}\left(0\right),\cdots {F}_{i}\left({{t-1}}\right)\right\}$表示第i个网格在不同时刻的局部单应性矩阵,这些能描述空间变化的路径称之为“联合相机路径”,而路径经过平滑后才能用于后图像稳定。

      (3) 对联合相机路径采用“多路径优化”策略进行平滑处理。假设初始的相机路径为${{C}} = \left\{ {C\left( t \right)} \right\}$,经过平滑后得的相机路径为${{P}} = \left\{ {{{P}}\left( t \right)} \right\}$,其中$C\left( t \right)$${{P}}\left( t \right)$分别表示t时刻的初始相机路径,平滑后相机路径。

      (4) 对输入视频进行运动补偿,利用平滑后相机路径和原始路径之间的差异,计算出每一帧中每个网格的运动补偿量${{{B}}_i}\left( t \right)$${{{B}}_i}\left( t \right){\rm{ = }}{{{C}}_i}^{ - 1}\left( t \right){P_i}\left( t \right)$,然后,对图像中每个网格进行反向补偿得到稳定后的红外图像。

    • 由于红外图像反映的是目标及背景向外辐射能量的差异,属于被动成像,对比度比较低,信噪比较差,所以,文中首先采用直方图均衡技术来提高图像对比度;然后,对相邻两帧进行ORB特征点的提取和匹配;接着,利用RANSAC算法剔除异常匹配点对。

      由于后续运动模型估计是基于特征点匹配对的,错误匹配点对的存在会直接影响运动估计的精度,因此文中采用了RANSAC算法从两种尺度上剔除异常匹配点对:首先,在整幅图像上使用RANSAC算法拟以相对较大的拟合误差阈值(建议阈值:8%图像宽度)丢弃特征;然后,在4×4的局部子图像上,使用RANSAC算法以相对较小的阈值(建议阈值:2%图像宽度)丢弃特征。

    • 将视频帧分为$m \times n$的网格后,采用基于网格映射的运动模型[17]来表征图像运动,每帧中定义一个统一的网格,基于网格映射的运动模型如图2所示。

      图  2  基于网格映射的运动模型。(a) 两帧图像网格之间的对应关系;(b) 形状保持约束

      Figure 2.  Motion model based on grid mapping. (a) Correspondence between two frames of image grids; (b) Shape retention constraints

      图2(a)中,$\left\{ {p,\hat p} \right\}$表示一对匹配的特征点对,特征点$p$用封闭网格顶点${{{V}}_p} = \left[ {v_p^1,v_p^2,v_p^3,v_p^4} \right]$的二维双线性插值表示,$p{\rm{ = }}{V_p}{w_p}$${{{w}}_p} = {\left[ {w_p^1,w_p^2,w_p^3,w_p^4} \right]^{\rm{T}}}$中各参数和为1。求解对应特征点${\overset{\frown} p} $的映射网格顶点向量${\hat V_p} = $$ \left[ {\hat v_p^1,\hat v_p^2,\hat v_p^3,\hat v_p^4} \right]$的目标函数如下:

      $${E_d}\left( {\hat V} \right) = {\sum\nolimits_p {\left\| {{{\hat V}_p}{w_p} - \hat p} \right\|} ^2}$$ (2)

      式中:${\hat V_p}$为待求参量;${w_p}$$\hat p$为已知参量;$\hat V$中包括所有的映射网格顶点。

      图2(b)中,由顶点$\hat v$${\hat v_{1}}$${\hat v_{0}}$构成的三角形要遵循相似变换。当每个单元格中可能没有足够的特征时,可以在目标函数中加入“形状保持约束”[14],引入正则项${E_s}\left( {\hat V} \right)$,使每个输出网格单元与其对应输入网格单元的相似度偏差最小:

      $${E_s}\left( {\hat V} \right) = {\sum\nolimits_{\hat v} {\left\| {\hat v - {{\hat v}_1} - s{R_{90}}\left( {{{\hat v}_0} - {{\hat v}_1}} \right)} \right\|} ^2},{R_{90}} = \left[ {\begin{array}{*{20}{c}} 0&1 \\ { - 1}&0 \end{array}} \right]$$ (3)

      式中:参数s根据初始网格进行估算$s = \left\| {v - {v_1}} \right\|{\rm{/}} $$ \left\| {{v_{0}} - {v_1}} \right\|$,加入正则化项有助于保持网格的平滑变化。因此,最终的目标函数为$E\left( {\hat V} \right)$

      $$E\left( {\hat V} \right){\rm{ = }}{E_d}\left( {\hat V} \right){\rm{ + }}\alpha {E_s}\left( {\hat V} \right)$$ (4)

      式中:$\alpha $为正则化参数,由于$E\left( {\hat V} \right)$是一个二次线性规划问题,可以利用一个稀疏线性系统求解器来求解$\hat V$

      文中方法采用基于网络映射的运动模型进行运动估计,该模型本质上是一系列基于2D网格的、空间变化的单应性模型,比传统单一的2D线性变换有更强的建模能力,能处理视差问题。另外,该模型通过在能量函数中增加“形状保持”约束,使文中算法对于图像特征点较少(由于无纹理区域或存在遮挡)情况时仍具有运动估计的泛化能力,所以该算法能较好地处理图像区域特征不足的问题。

      那么,应该如何选择网格单元的数目呢?网格单元数目的多少对稳像精度和实时性均有影响。网格单元的数目直接决定了整帧图像中待求解的单应性矩阵个数,进而会影响到运动估计、路径平滑以及运动补偿环节,最终影响视频稳像的结果。一般情况下,对于同一帧图像,设置的网格单元数目越多,运动估计的精度越高,路径平滑的复杂度越高, 运动补偿的效果更好,对应的稳像精度越高,但同时也会牺牲一定的实时性。因此,具体要综合考虑工程应用的实时性和稳像精度需求进行选择。为此,文中选用640×320分辨率的红外视频图像进行实验,并分别比较了六组不同网格尺寸下的视频稳像结果,结果如表1所示。

      表1可知,当网格单元尺寸较少时,运动模型估计时间较少,但Stability值也较低;而当网格单元数目增多时,Stability值会提高,但运动模型估计时间增加。当网格单元尺寸为16×16时,运动模型估计时间为2.165 s,同时稳定度可以达到0.86,完全能满足视频稳像的需要;而当网格单元尺寸变为32×32和64×64时,Stability值提高不明显,但是算法的运动时间却会明显增多。因此,文中建议将图像帧分为16×16的网格单元,这样能同时保证稳像算法的视频稳定度和运行效率。

      表 1  不同网格单元尺寸下的视频稳像结果

      Table 1.  Video image stabilization results under different grid cell sizes

      Grid cell sizeRun model estimate time/sStability
      3×30.9880.65
      7×71.1550.72
      9×91.4430.78
      16×162.1650.86
      32×3213.2610.87
      64×64370.5380.83
    • 当映射网格的顶点向量估算完成后,需要求解出第t帧图像第i个网格的初始局部单应性矩阵为${F_i}^{'}\left( t \right)$,等式如下:

      $${\hat V_i} = {F_i}^{'}\left( t \right){V_i}$$ (5)

      式中:${V_i}$${\hat V_i}$分别为映射前后的顶点向量,均为已知量;${F_i}\left( t \right)$为未知量。

    • 对于第t帧图像的第i个网格,将初始局部单应性矩阵${F_i}^{'}\left( t \right)$和全局单应性变换矩阵$\bar F\left( t \right)$相乘可以得到最终的局部单应性矩阵${F_i}\left( t \right)$,即${F_i}\left( t \right){\rm{ = }} {F_i}^{'}\left( t \right) \times $$ \overline F\left( t \right)$。然后,通过公式(1)估算出描述空间变化的联合相机路径${C_i}\left( t \right)$${C_i}\left( t \right)$为第t帧图像中第i个网格的初始相机路径,联合相机路径求解的过程如图3所示。

      图  3  联合相机路径求解过程的示意图。(a)网格的路径迭代;(b)初始相机路径C(t)、平滑路径P(t)、补偿路径B(t)之间的关系

      Figure 3.  Schematic diagram of the joint camera path solution process. (a) Path iteration of the grid; (b) Relationship among the initial camera path C(t), smooth path P(t), and compensation path B(t)

      图3(a)为网格的路径迭代,其中${C_i}\left( {t + 1} \right) = {C_i}\left( t \right) $$ {F_i}\left( t \right), {C_j}\left( {t + 1} \right) = {C_i}\left( t \right){F_j}\left( t \right)$分别为第t帧图像中第i个、第j个网格单元的路径迭代公式。

      图3(b)为初始相机路径C(t)、平滑路径P(t)、补偿路径B(t)之间的关系,初始相机路径C(t)是由路径迭代获得的,而平滑路径结合后续第1.4节的多路径优化后得到,则最终图像需要补偿的路径为B(t),并且${{B}}\left( t \right){\rm{ = }}{{{C}}^{ - 1}}\left( t \right)P\left( t \right)$,利用利用矩阵${{B}}\left( t \right)$对图像进行反向补偿,得到稳定后的图像。

      文中算法的关键就是采用网格映射模型进行运动估计,在能量函数中加入正则项增加运动模型估计的泛化能力。为了验证文中算法图像对特征点较少情况时的运动估计泛化能力,文中对图像特征点集丰富和较少情况下的稳像结果进行了对比,结果如图4所示。

      图4(a)为图像特征点集丰富的情况,左侧为特征点集,绿色点表示特征点,右侧为稳像结果,网格表示利用所有特征点估计的映射网格;图4(b)为图像特征点集较少的情况,左侧为特征点集,红色矩形框代表其中的特征点被剔除掉,右侧为稳像结果。图4(a)和图4(b)达到的稳像结果相似,这说明该算法能较好地处理图像区域特征不足的问题。

      图  4  图像特征点集丰富和较少情况下的稳像结果对比。(a)特征点集丰富;(b)特征点集较少

      Figure 4.  Comparison of image stability results in the case of abundant feature points and few feature points. (a) Rich feature point set;(b) Less feature point set

    • 对联合相机路径采用“多路径优化”策略进行平滑处理。相机路径平滑问题应考虑多个因素:要消除抖动,避免过度裁剪,最小化各种几何畸变(剪切/倾斜,抖动)。

    • 每个网格对应生成一条相机路径,首先,对单个相机路径进行平滑。对于给定的初始相机路径${{C}} = \left\{ {C\left( t \right)} \right\}$,希望得到平滑后得的相机路径为${{P}} = \left\{ {{{P}}\left( t \right)} \right\}$,通过极小化能量函数得到:

      $$f\left( {{P}} \right) = \sum\limits_t {\left( {{{\left\| {P(t) - C(t)} \right\|}^2} + \lambda \sum\limits_{r \in {\varOmega _t}} {{{\left\| {P(t) - P(r)} \right\|}^2}} } \right)} $$ (6)

      式中:$\lambda $表示自定义参数;${\varOmega _t}$表示第t帧的相邻帧,第一项${\left\| {P(t) - C(t)} \right\|^2}$是为了使平滑后的相机路径能尽可能地接近初始相机路径,避免稳定后的视频出现过度的裁剪和扭曲,第二项${\left\| {P(t) - P(r)} \right\|^2}$是平滑项,能去除原始视频中的抖动。

    • 如果只对单个网格的路径进行优化,则相邻路径的一致性可能会降低,稳定视频中会产生失真。因此,对单个路径进行平滑的同时,需要考虑多个网格路径之间的空间关系,通过最小化以下目标函数对多个路径进行时空优化:

      $$\sum\limits_{i = 1}^{m \times n} {f\left( {{{{P}}_i}} \right)} + \beta {\sum\limits_t {\sum\limits_{j \in N\left( i \right)} {\left\| {{P_i}\left( t \right) - {P_j}\left( t \right)} \right\|} } ^2}$$ (7)

      式中:$\;\beta $表示自定义的参数;$N\left( i \right)$包括第i个网格单元的八个领域网格,该式中第一项是单个路径的目标函数,引入的第二项${ \displaystyle\sum\limits_{j \in N\left( i \right)} {\left\| {{P_i}\left( t \right) - {P_j}\left( t \right)} \right\|} ^{\rm{2}}}$是为了加强相邻路径之间的平滑性,即保证每一个网格的路径其他领域网格的路径尽可能接近,减少扭曲现象。

      通过公式(7)求解得到最终的平滑后相机路径${\left\{ {{{{P}}_i}} \right\}_{i = 1,...m \times n}}$,由于优化问题是二次型的,最优结果能通过求解一个稀疏线性系统求解器得到,同样也可以通过基于雅可比矩阵[18]的迭代更新求解。

      t帧图像的每个网格的路径经过平滑后,计算第i个网格单元的补偿矩阵${B_i}\left( t \right)$${B_i}\left( t \right){{ = C}}_i^{ - 1}\left( t \right){P_i}\left( t \right)$,然后应用${B_i}\left( t \right)$在第t帧图像处扭曲第i个网格单元,以生成最终的输出视频,通常直接应用${B_i}\left( t \right)$会产生不错的稳像效果。图5为红外图像序列对应的联合相机路径和路径优化后结果。

      公式(7)中第二项是为了加强相邻路径之间的平滑性,如果去掉此项约束,稳像后图像容易出现扭曲现象。接下来将对第二项约束加入前、后的平滑效果进行具体分析,结果如图6所示。通过对比图6(b)和6(c)可以看出,当未加入第二项约束时,图像相邻路径之间的差异性较大,图像容易出现扭曲,影响稳像效果,图中用箭头标识出;而文中算法避免了图像的扭曲,加强了相邻路径之间的平滑性,从而保证了整体的稳像效果。

      图  5  图像对应的联合相机路径和优化后的路径。(a)图像帧间的对应网格;(b)路径优化前后的结果:左边第(1, 1)个网格,右边第(1, 1)个网格

      Figure 5.  Image corresponds to the joint camera path and the optimized path. (a) Corresponding grids between image frames; (b) Results before and after path optimization: the left side is the (1, 1) grid, and the right side is the (1, 1) grid

      图  6  第二项约束加入前、后的平滑效果。(a)原图像;(b)未加第二项约束;(c)文中的结果

      Figure 6.  Smoothing results before and after adding the second restraint. (a) Original image; (b) Without the second restraint; (c) Result in this paper

    • 文中的验证实验采用了如下的两大数据集:

      数据集1:采用了参考文献[19]中提供的公共视频数据集,这是常采用的基准数据集,图像的分辨率为640×320,总共包含了七种不同的拍摄情况:(I) Simple类,摄像机的运动比较简单;(II) Rotation类,摄像机存在大幅的的旋转运动;(III) Zooming类:摄像机存在大幅的旋转运动;(IV)Parallax类: 摄像机进行了扫描拍摄;(V) Driving类:利用基于车载的摄像机拍摄;(VI) Crowd类:拍摄的场景存在运动前景;(VII) Running类:利用快速前进的摄像机拍摄。

      数据集2:利用红外线列探测器采集的视频数据集,图像分辨率为282×600,图像深度为16 bit,总共包含七种不同的拍摄情况:(I) Simple类,(II) Rotation类,(III) Zooming类,(IV) Parallax类,(V) Driving类,(VI) Crowd类,(VII) Running类。

      文中的验证实验均在Intel(R) Core(TM)i5-5200U CPU@2.20 GHZ,8 GB内存,64位Win10系统上进行,利用Matlab2016a软件实现算法程序,并且结合“ffmpeg”媒体处理工具对视频/图像数据进行转化,文中算法框架方案可详见图7的算法伪代码。验证实验中,利用上述的数据集,将每一帧图像被分成了16×16的网格单元,通过预处理、联合相机路径求解、多路径优化、运动补偿步骤实现了稳像处理,并结合客观指标进行评价。

      图  7  文中算法实现的伪代码

      Figure 7.  Pseudo code of the algorithm in this paper

    • 传统的红外稳像算法中,整帧图像通常采用单一的相机路径,如仿射或单应性矩阵,但是图像各局部运动差异导致误差较大。而文中算法将视频帧分成m×n的网格单元,联合相机路径就是同一个网格单元随着时间推移的同构连接,将联合路径作为一个整体进行平滑,能保持空间和时间的一致性,所以稳像的效果更好。为了说明文中算法的优势,文中对单相机路径和联合相机路径的稳像结果进行了对比,结果如图8所示。

      图  8  单路径和联合路径的稳像结果对比。(a)路径优化结果;(b)稳像后图像:左边为单路径,右边为联合路径

      Figure 8.  Comparison of image stability results between single path and joint path. (a) Path optimization results; (b) Image after image stabilization: the left side is the single path, and the right side is the joint path

      图8(a)为路径优化结果,原始和优化后路径,各路径之间保持了空间和时间的一致性,所以优化效果更好。图8(b)为稳像后的图像,分别为单一和联合相机路径的稳像结果,通过对比可以看出,联合相机路径的稳像后图像,图像过渡更加平滑,视觉效果更好,而单相机路径的稳像后图像存在扭曲变形,边缘区域留白较大,影响了视觉的效果。

    • 传统的稳像算法当场景存在视差的变化时,适用性较差,为了说明文中算法的稳像优势,文中选取了两种不同视差变化情况下的视频进行实验,将文中算法分别和传统的稳像算法:L1算法[7]、AE系统[16](著名商业系统Adobe After Effects CS6中的“Warp Stabilize”功能,简称AE)、朱娟娟电子稳像算法[8]进行对比,实验结果如图9~10所示。

      图  9  Driving类视频下多种稳像算法的结果对比。(a)原图像;(b) L1算法;(c) AE系统;(d)朱娟娟电子稳像算法;(e)文中算法

      Figure 9.  Comparison of results of various image stabilization algorithms under the Driving type video. (a) Original image; (b) L1 algorithm; (c) AE system; (d) Zhu Juanjuan's electronic image stabilization algorithm; (e) Proposed algorithm

      图  10  Zooming类视频下多种稳像算法的结果对比。(a)原图像;(b) L1算法;(c) AE系统;(d)朱娟娟电子稳像算法;(e)文中算法

      Figure 10.  Comparison of results of various image stabilization algorithms under the Zooming type video. (a) Original image; (b) L1 algorithm (c) AE system; (d) Zhu Juanjuan's electronic image stabilization algorithm; (e) Proposed algorithm

      通过图9~10可以看出,AE系统的视频稳定器容易出现视频的过渡裁剪,导致大量像素缺失;而朱娟娟电子稳像算法适用于Parallax类的视频,对含有视差变化的视频,稳像效果较差;L1算法稳像后的视频图像相对于原图像差异较大,容易出现视觉的突变,稳像效果较差;而文中算法由于采用网格化映射和多路径优化,能尽量保留稳定后图像的像素信息,而且图像过渡比较平滑,充分说明了文中算法的稳像结果更好。

    • 为了定量地评价和度量视频稳像结果,文中采用三个客观度量标准[19-20]:即裁剪率(Cropping Ratio)、失真率 (Distortion)、稳定度(Stability),定义如下:

      裁剪率:衡量稳定后图像帧剩余的有效区域占原图像帧的比例,其值越大,说明视频稳像的效果越好,整个视频的裁剪率=average{所有视频帧裁剪率}。

      失真率:衡量稳定后视频的失真程度,可以用映射矩阵B(t)的各向异性比例来衡量失真率,每一帧图像的失真率=映射矩阵B(t)的两个最大特征值的比值,整个视频的失真率=min{所有帧图像的失真率}。

      稳定度:衡量稳定后视频的稳定度,采用频率分析法对视频中的2D运动进行估算,基于如下假设:运动分量中低频分量所占的越多,说明视频越稳定。

      为了能客观说明文中稳像算法的优势,文中利用了七类视频数据进行实验,分别采用L1算法[7]、AE算法[16]、文中算法,计算出了每种算法对应的稳像指标。

      图11为几种稳像算法的定量评价结果。对于类别(I),因为该类视频具有相对平稳的摄像机运动和较小的深度变化,虽然这三种算法的稳像效果均不错,但是文中算法的裁剪率、失真率和稳定度指标更好。对于类别(II~IV),AE算法的裁剪率最低,主要是因为AE算法出现过度裁剪,特别是视差变化时。对于类别(V~VII),这三种算法可以产生类似的稳定度指标,但文中算法在裁剪率或失真控制方面始终较好。

      图  11  几种稳像算法在七组视频下的定量评价结果。(a) Simple;(b) Rotation;(c) Zooming;(d) Parallax;(e) Driving;(f) Crowd;(g) Running

      Figure 11.  Quantitative evaluation results of several image stabilization algorithms under seven sets of videos. (a) Simple; (b) Rotation; (c) Zooming; (d) Parallax; (e) Driving; (f) Crowd; (g) Running

    • 相对于传统的基于3D的视频稳像方法,文中的算法更加稳定,因为不需要长时间特征跟踪,却可以产生类似的或者只是稍微差一点的结果。文中算法对于含有视差变化的视频,仍能取得较好的稳像效果,同时保留了传统2D视频稳像算法的优势。

      但在某些情况下,文中算法仍存在局限性,比如当视频存在严重遮挡时,稳像的效果较差,主要是因为文中的运动模型估计仍是基于特征点提取的,当特征点严重不足时,会严重影响运动模型的估计精度。

    • 文中提出了一种基于联合相机路径的红外视频稳像算法,该算法能在一定程度上解决针对红外视频稳像技术中存在的视差难题。相对于传统稳像算法,该算法的效果更好,对特征点存在部分遮挡的情况,也取得了不错的稳像效果。但是,当特征点严重不足或遮挡严重时,稳像的效果较差,主要是因为文中的运动模型估计仍是基于特征点提取;另外,也可以结合现在热门的神经网络技术融入视频稳像,旨在解决多场景下的稳像难题,这些都是今后重要的研究方向。

参考文献 (20)

目录

    /

    返回文章
    返回