留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

面向微光/红外融合彩色夜视的场景解析方法

鲁佳颖 谷小婧 顾幸生

鲁佳颖, 谷小婧, 顾幸生. 面向微光/红外融合彩色夜视的场景解析方法[J]. 红外与激光工程, 2017, 46(8): 804002-0804002(6). doi: 10.3788/IRLA201746.0804002
引用本文: 鲁佳颖, 谷小婧, 顾幸生. 面向微光/红外融合彩色夜视的场景解析方法[J]. 红外与激光工程, 2017, 46(8): 804002-0804002(6). doi: 10.3788/IRLA201746.0804002
Lu Jiaying, Gu Xiaojing, Gu Xingsheng. Scene parsing method toward low-light-level/infrared color night vision[J]. Infrared and Laser Engineering, 2017, 46(8): 804002-0804002(6). doi: 10.3788/IRLA201746.0804002
Citation: Lu Jiaying, Gu Xiaojing, Gu Xingsheng. Scene parsing method toward low-light-level/infrared color night vision[J]. Infrared and Laser Engineering, 2017, 46(8): 804002-0804002(6). doi: 10.3788/IRLA201746.0804002

面向微光/红外融合彩色夜视的场景解析方法

doi: 10.3788/IRLA201746.0804002
基金项目: 

国家自然科学基金(61205017,61502293,61573144);中央高校基本科研业务费专项

详细信息
    作者简介:

    鲁佳颖(1992-),女,硕士生,主要从事彩色夜视图像处理及分析方面的研究。Email:jiayinglu92@gmail.com

  • 中图分类号: TP391.4

Scene parsing method toward low-light-level/infrared color night vision

  • 摘要: 彩色夜视技术可以将微光/红外双谱图像融合成一幅适于人眼观察的彩色图像,而恰当的场景解析方法能够对彩色夜视图像的内容做出自动化分析,进一步减轻人眼的观测负担。针对彩色夜视场景丰富多变、对算法灵活性要求高的特点,提出了一种可在线扩展的场景解析方法。该方法基于非参数模型,预测景物类别时不需要训练过程,只需要使用数据库中具有语义标记的样本图像, 通过将待解析图像与样本图像进行全局及局部匹配来实现语义标签的传递。而且,数据库可以根据应用场景的不同随时进行动态扩充。实验结果表明:该方法在包含城市、乡野等多种场景的夜视图像上,以及由统计色彩映射、TNO、NRL等多种融合方法得到的、具有不同色彩表征的彩色夜视图像上都具有令人满意的准确率。
  • [1] Toet A, Ijspeert J K, Waxman A M, et al. Fusion of visible and thermal imagery improves situational awareness[J]. Displays, 1997, 18(2):85-95.
    [2] Zou X T, Bhanu B. Tracking humans using multi-modal fusion[C]//2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2005.
    [3] Michael A, Irvine J M. Information fusion for feature extraction and the development of geospatial information[C]//Proceeding of the 7th International Conference on Information Fusion, 2004:976-982.
    [4] Bulanon D M, Burks T F, Alchanatis V. Image fusion of visible and thermal images for fruit detection[J]. Biosytems Engineering, 2009, 103(1):12-22.
    [5] Jiang Dong, Zhang Dafang, Huang Yaohuan, et al. Survey of multispectral image fusion techniques in remote sensing applications[C]//Image Fusion and Its Applications, 2011:1-22.
    [6] Daneshvar S, Ghassemian H. MRI and PET image fusion by combining IHS and retina-inspired models[J]. Information Fusion, 2010, 11(2):114-123.
    [7] He Xuming, Zemel R S, Carreira-Perpinan M A. Multiscale conditional random fields for image labeling[C]//Proceedings IEEE Conference Computer Vision and Pattern Recognition, 2004, 2:695-702.
    [8] Ladicky L, Sturgess P, Alahari K, et al. What, where and how many combining object detectors and CRFs[C]//Proceedings European Conference Computer Vision, 2010:424-437.
    [9] Galleguillos C, Mcfee B, Belongie S, et al. Multi-class object localization by combining local contextual interactions[C]//Proceedings IEEE Conference Computer Vision and Pattern Recognition, 2010:113-120.
    [10] Gould S, Fulton R, Koller D. Decomposing a scene into geometric and semantically consistent regions[C]//Proceedings IEEE International Conference Computer Vision, 2009:1-8.
    [11] Divvala S, Hoiem D, Hays J, et al. An empirical study of context in object detection[C]//Proceedings IEEE Conference Computer Vision and Pattern Recognition, 2009:1271-1278.
    [12] Felzenszwalb P, Mcallester D, Ramanan D A. Discriminatively trained multiscale deformable part model[C]//Proceedings IEEE Conference Computer Vision and Pattern Recognition, 2008:1-8.
    [13] Farabet C, Couprie C, Najman L, et al. Learning hierarchical features for scene labeling[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(8):1915-1929.
    [14] Rahul M. Deep deconvolutional networks for scene parsing[J]. Computer Science, 2014, ArXiv:1411. 4101.
  • [1] 李博, 张心宇.  复杂场景下基于自适应特征融合的目标跟踪算法 . 红外与激光工程, 2022, 51(10): 20220013-1-20220013-11. doi: 10.3788/IRLA20220013
    [2] 李鹏举, 张雅声, 方宇强, 殷智勇.  基于改进马尔可夫随机场的事件相机去噪算法 . 红外与激光工程, 2021, 50(10): 20210294-1-20210294-8. doi: 10.3788/IRLA20210294
    [3] 任宏, 卜远壮, 王茜, 李玉, 杜艳丽, 弓巧侠, 李金海, 马凤英, 苏建坡.  高图像配准精度的非相干数字全息彩色成像 . 红外与激光工程, 2020, 49(10): 20200022-1-20200022-6. doi: 10.3788/IRLA20200022
    [4] 张国山, 张培崇, 王欣博.  基于多层次特征差异图的视觉场景识别 . 红外与激光工程, 2018, 47(2): 203004-0203004(9). doi: 10.3788/IRLA201847.0203004
    [5] 马跃, 张文豪, 张智宇, 马昕, 李松.  基于半解析模型的激光测高回波海水海冰波形分类方法 . 红外与激光工程, 2018, 47(5): 506005-0506005(7). doi: 10.3788/IRLA201847.0506005
    [6] 李永倩, 李婷, 安琪, 李晓娟, 李攀.  脉冲预泵浦瑞利BOTDA系统的解析模型与仿真 . 红外与激光工程, 2016, 45(8): 822005-0822005(8). doi: 10.3788/IRLA201645.0822005
    [7] 赵向阳, 王俊龙, 邢东, 杨大宝, 张立森, 梁士雄, 冯志红.  太赫兹平面肖特基二极管参数模型 . 红外与激光工程, 2016, 45(12): 1225004-1225004(6). doi: 10.3788/IRLA201645.1225004
    [8] 罗安治, 孙辉, 贾宏光, 赵明.  光电探测系统参数与非参数模型运动学标定 . 红外与激光工程, 2016, 45(5): 517005-0517005(6). doi: 10.3788/IRLA201645.0517005
    [9] 王利国, 吴振森, 王明军, 王万君, 张耿.  湍流大气中部分相干光二阶统计特性的三参数模型及其应用 . 红外与激光工程, 2015, 44(1): 317-320.
    [10] 段运生, 张东彦, 黄林生, 赵晋陵.  冻害胁迫小麦的图谱特征解析研究 . 红外与激光工程, 2015, 44(7): 2218-2223.
    [11] 陈一超, 胡文刚, 武东生, 何永强, 李晓明.  三波段真彩色夜视光谱匹配技术 . 红外与激光工程, 2015, 44(12): 3837-3842.
    [12] 薛模根, 周浦城, 刘存超.  夜视图像局部颜色传递算法 . 红外与激光工程, 2015, 44(2): 781-785.
    [13] 龚卫国, 刘润瑶, 张睿.  光照突变下融合多类特征的场景分割方法 . 红外与激光工程, 2014, 43(12): 4164-4169.
    [14] 许轰烈, 陈钱, 隋修宝, 刘宁.  基于单调场景运动的复杂非均匀性校正 . 红外与激光工程, 2014, 43(9): 3168-3172.
    [15] 苏宇, 高绍姝, 金伟其, 贾晓婷, 潘定平, 刘佳妮, 金凯佳.  典型场景彩色融合图像颜色协调性的主观评价 . 红外与激光工程, 2014, 43(11): 3767-3774.
    [16] 高绍姝, 金伟其, 王岭雪, 骆媛, 李家琨.  基于场景理解的双波段彩色融合图像质量评价 . 红外与激光工程, 2014, 43(1): 300-305.
    [17] 邢砾云, 张瑾, 崔洪亮.  小波域马尔可夫随机场在THz 图像处理中的应用 . 红外与激光工程, 2014, 43(7): 2324-2334.
    [18] 张东彦, 梁栋, 赵晋陵, Coburn Craig, Wang Zhijie, 王秀.  多角度成像解析大豆冠层的二向反射特征 . 红外与激光工程, 2013, 42(3): 787-797.
    [19] 张东彦, 刘良云, 黄文江, Coburn Craig, 梁栋.  利用图谱特征解析和反演作物叶绿素密度 . 红外与激光工程, 2013, 42(7): 1871-1881.
    [20] 纪超, 刘慧英, 孙景峰, 贺胜, 黄民主.  基于超像素的物体似然概率计算模型研究 . 红外与激光工程, 2013, 42(11): 3156-3162.
  • 加载中
计量
  • 文章访问数:  528
  • HTML全文浏览量:  86
  • PDF下载量:  138
  • 被引次数: 0
出版历程
  • 收稿日期:  2016-12-05
  • 修回日期:  2017-01-10
  • 刊出日期:  2017-08-25

面向微光/红外融合彩色夜视的场景解析方法

doi: 10.3788/IRLA201746.0804002
    作者简介:

    鲁佳颖(1992-),女,硕士生,主要从事彩色夜视图像处理及分析方面的研究。Email:jiayinglu92@gmail.com

基金项目:

国家自然科学基金(61205017,61502293,61573144);中央高校基本科研业务费专项

  • 中图分类号: TP391.4

摘要: 彩色夜视技术可以将微光/红外双谱图像融合成一幅适于人眼观察的彩色图像,而恰当的场景解析方法能够对彩色夜视图像的内容做出自动化分析,进一步减轻人眼的观测负担。针对彩色夜视场景丰富多变、对算法灵活性要求高的特点,提出了一种可在线扩展的场景解析方法。该方法基于非参数模型,预测景物类别时不需要训练过程,只需要使用数据库中具有语义标记的样本图像, 通过将待解析图像与样本图像进行全局及局部匹配来实现语义标签的传递。而且,数据库可以根据应用场景的不同随时进行动态扩充。实验结果表明:该方法在包含城市、乡野等多种场景的夜视图像上,以及由统计色彩映射、TNO、NRL等多种融合方法得到的、具有不同色彩表征的彩色夜视图像上都具有令人满意的准确率。

English Abstract

参考文献 (14)

目录

    /

    返回文章
    返回