留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于深度谱卷积神经网络的高效视觉目标跟踪算法

郭强 芦晓红 谢英红 孙鹏

郭强, 芦晓红, 谢英红, 孙鹏. 基于深度谱卷积神经网络的高效视觉目标跟踪算法[J]. 红外与激光工程, 2018, 47(6): 626005-0626005(6). doi: 10.3788/IRLA201847.0626005
引用本文: 郭强, 芦晓红, 谢英红, 孙鹏. 基于深度谱卷积神经网络的高效视觉目标跟踪算法[J]. 红外与激光工程, 2018, 47(6): 626005-0626005(6). doi: 10.3788/IRLA201847.0626005
Guo Qiang, Lu Xiaohong, Xie Yinghong, Sun Peng. Efficient visual target tracking algorithm based on deep spectral convolutional neural networks[J]. Infrared and Laser Engineering, 2018, 47(6): 626005-0626005(6). doi: 10.3788/IRLA201847.0626005
Citation: Guo Qiang, Lu Xiaohong, Xie Yinghong, Sun Peng. Efficient visual target tracking algorithm based on deep spectral convolutional neural networks[J]. Infrared and Laser Engineering, 2018, 47(6): 626005-0626005(6). doi: 10.3788/IRLA201847.0626005

基于深度谱卷积神经网络的高效视觉目标跟踪算法

doi: 10.3788/IRLA201847.0626005
基金项目: 

国家自然科学基金(61603415,61602322,61503274);辽宁省教育厅科学研究一般项目(L2015558,W2015393)

详细信息
    作者简介:

    郭强(1982-),男,讲师,博士,主要从事图像智能处理、机器人智能导航等方面的研究。Email:royinchina@163.com

  • 中图分类号: TP391

Efficient visual target tracking algorithm based on deep spectral convolutional neural networks

  • 摘要: 提出了一种基于深度频谱卷积神经网络的视觉目标跟踪算法。该算法在深度模型训练阶段采用谱池化替代深度卷积神经网络中的最大池化过程,用贝叶斯分类器替代softmax损失层计算最大分类值,并将其整合到深度神经网络跟踪框架中,通过新网络计算输入正负样本的概率分布预测目标位置。该算法充分利用谱池化在频域下降维到任意维度且计算高效的优点,克服了最大池化采样造成大量空间信息丢失的不足,提升了计算速度。在权威多场景视频标准测试库上对所提算法进行验证,结果验证了该算法兼顾了效率和跟踪精度,有效提高跟踪器的性能,在相同测试条件下,文中算法性能优于同类对比算法。
  • [1] Liu Zhi, Huang Jiangtao, Feng Xin. Action recognition model construction based on multi-scale deep convolution neural network[J]. Optics and Precision Engineering, 2017, 25(3):799-805. (in Chinese)刘智, 黄江涛, 冯欣. 构建多尺度深度卷积神经网络行为识别模型[J]. 光学精密工程, 2017, 25(3):799-805.
    [2] Pei Xiaomin, Fan Huijie, Tang Yandong. Action recognition method of spatio-temporal feature fusion deep learning network[J]. Infrared and Laser Engineering, 2018, 47(2):0203007. (in Chinese)裴晓敏, 范慧杰, 唐延东. 时空特征融合深度学习网络人体行为识别方法[J]. 红外与激光工程, 2018, 47(2):0203007.
    [3] Luo Haibo, Xu Lingyun, Hui Bin, et al. Status and prospect of target tracking based on deep learning[J]. Infrared and Laser Engineering, 2017, 46(5):0502002. (in Chinese)罗海波, 许凌云, 惠斌, 等. 基于深度学习的目标跟踪方法研究现状与展望[J]. 红外与激光工程, 2017, 46(5):0502002.
    [4] Wang N, D Y Yeung. Learning a deep compact image representation for visual tracking[C]//Advances in Neural Information Processing Systems, 2013:809-817.
    [5] Wang N, Li S, Gupta A, et al. Transferring rich feature hierarchies for robust visual tracking[EB/OL]. 2015-04-23.https://arxiv.org/abs/1501.04587, 2015.
    [6] Wang L, Ouyang W, Wang X, et al. Visual tracking with fully convolutional networks[C]//Proceedings of the IEEE International Conference on Computer Vision. Chile:IEEE Computer Society, 2016:3119-3127.
    [7] Ma C, Huang J B, Yang X, et al. Hierarchical convolutional features for visual Tracking[C]//Proceedings of the IEEE International Conference on Computer Vision. Chile:IEEE Computer Society, 2016:3074-3082.
    [8] Nam H, Han B. Learning multi-domain convolutional neural networks for visual tracking[EB/OL]. 2016-01-06. https://arxiv.org/pdf/1510.07945, 2015.
    [9] Vasilache N, Johnson J, Mathieu M, et al. Fast convolutional nets with fbfft:A GPU Performance Evaluation[EB/OL].2015-04-10. https://arxiv.org/pdf/1412.7580, 2014.
    [10] Rippel O, Snoek J, Adams R P. Spectral representations for convolutional neural networks[C]//International Conference on Neural Information Processing Systems. Canada:MIT Press, 2015:2449-2457.
    [11] Gu J, Wang Z, Kuen J, et al. Recent advances in convolutional neural networks[EB/OL]. 2017-10-19. https://arxiv.org/pdf/1512.07108, 2015.
    [12] Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks[C]//International Conference on Neural Information Processing Systems. Curran Associates Inc. 2012:1097-1105.
    [13] Boris B, Yang M H, Belongie S.Visual tracking with online multiple instance learning[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Los Alamitos:IEEE Computer Society Press, 2009:983-990.
    [14] Wu Y, Lim J, Yang M H. Object tracking benchmark[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9):1834-1848.
    [15] Tao R, Gavves E, Smeulders A W M. Siamese instance search for tracking[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Los Alamitos:IEEE Computer Society Press, 2016:1420-1429.
    [16] Qi Y, Zhang S, Qin L, et al. Hedged deep tracking[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Los Alamitos:IEEE Computer Society Press, 2016:4303-4311.
    [17] Henriques J F, Rui C, Martins P, et al. High-speed tracking with kernelized correlation filters[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 37(3):583-561.
    [18] Zhang K, Liu Q, Wu Y, et al. Robust visual tracking via convolutional networks without training[J]. IEEE Transactions on Image Processing, 2016, 25(4):1779-1792.
    [19] Hong S, You T, Kwak S, et al. Online tracking by learning discriminative saliency map with convolutional neural network[J]. Computer Science, 2015:597-606.
  • [1] 钟锦鑫, 尹维, 冯世杰, 陈钱, 左超.  基于深度学习的散斑投影轮廓术 . 红外与激光工程, 2020, 49(6): 20200011-1-20200011-11. doi: 10.3788/IRLA20200011
    [2] 李鸿龙, 杨杰, 张忠星, 罗迁, 于双铭, 刘力源, 吴南健.  用于实时目标检测的高速可编程视觉芯片 . 红外与激光工程, 2020, 49(5): 20190553-20190553-10. doi: 10.3788/IRLA20190553
    [3] 薛珊, 张振, 吕琼莹, 曹国华, 毛逸维.  基于卷积神经网络的反无人机系统图像识别方法 . 红外与激光工程, 2020, 49(7): 20200154-1-20200154-8. doi: 10.3788/IRLA20200154
    [4] 梁欣凯, 宋闯, 赵佳佳.  基于深度学习的序列图像深度估计技术 . 红外与激光工程, 2019, 48(S2): 134-141. doi: 10.3788/IRLA201948.S226002
    [5] 周宏强, 黄玲玲, 王涌天.  深度学习算法及其在光学的应用 . 红外与激光工程, 2019, 48(12): 1226004-1226004(20). doi: 10.3788/IRLA201948.1226004
    [6] 张秀, 周巍, 段哲民, 魏恒璐.  基于卷积稀疏自编码的图像超分辨率重建 . 红外与激光工程, 2019, 48(1): 126005-0126005(7). doi: 10.3788/IRLA201948.0126005
    [7] 罗海波, 何淼, 惠斌, 常铮.  基于双模全卷积网络的行人检测算法(特邀) . 红外与激光工程, 2018, 47(2): 203001-0203001(8). doi: 10.3788/IRLA201847.0203001
    [8] 唐聪, 凌永顺, 郑科栋, 杨星, 郑超, 杨华, 金伟.  基于深度学习的多视窗SSD目标检测方法 . 红外与激光工程, 2018, 47(1): 126003-0126003(9). doi: 10.3788/IRLA201847.0126003
    [9] 张秀玲, 侯代标, 张逞逞, 周凯旋, 魏其珺.  深度学习的MPCANet火灾图像识别模型设计 . 红外与激光工程, 2018, 47(2): 203006-0203006(6). doi: 10.3788/IRLA201847.0203006
    [10] 张国山, 张培崇, 王欣博.  基于多层次特征差异图的视觉场景识别 . 红外与激光工程, 2018, 47(2): 203004-0203004(9). doi: 10.3788/IRLA201847.0203004
    [11] 谢冰, 段哲民, 郑宾, 殷云华.  基于迁移学习SAE的无人机目标识别算法研究 . 红外与激光工程, 2018, 47(6): 626001-0626001(7). doi: 10.3788/IRLA201847.0626001
    [12] 李方彪, 何昕, 魏仲慧, 何家维, 何丁龙.  生成式对抗神经网络的多帧红外图像超分辨率重建 . 红外与激光工程, 2018, 47(2): 203003-0203003(8). doi: 10.3788/IRLA201847.0203003
    [13] 贾鑫, 张惊雷, 温显斌.  双监督信号深度学习的电气设备红外故障识别 . 红外与激光工程, 2018, 47(7): 703003-0703003(7). doi: 10.3788/IRLA201847.0703003
    [14] 杨楠, 南琳, 张丁一, 库涛.  基于深度学习的图像描述研究 . 红外与激光工程, 2018, 47(2): 203002-0203002(8). doi: 10.3788/IRLA201847.0203002
    [15] 刘天赐, 史泽林, 刘云鹏, 张英迪.  基于Grassmann流形几何深度网络的图像集识别方法 . 红外与激光工程, 2018, 47(7): 703002-0703002(7). doi: 10.3788/IRLA201847.0703002
    [16] 张腊梅, 陈泽茜, 邹斌.  基于3D卷积神经网络的PolSAR图像精细分类 . 红外与激光工程, 2018, 47(7): 703001-0703001(8). doi: 10.3788/IRLA201847.0703001
    [17] 殷云华, 李会方.  基于混合卷积自编码极限学习机的RGB-D物体识别 . 红外与激光工程, 2018, 47(2): 203008-0203008(8). doi: 10.3788/IRLA201847.0203008
    [18] 姚旺, 刘云鹏, 朱昌波.  基于人眼视觉特性的深度学习全参考图像质量评价方法 . 红外与激光工程, 2018, 47(7): 703004-0703004(8). doi: 10.3788/IRLA201847.0703004
    [19] 唐聪, 凌永顺, 杨华, 杨星, 郑超.  基于深度学习物体检测的视觉跟踪方法 . 红外与激光工程, 2018, 47(5): 526001-0526001(11). doi: 10.3788/IRLA201847.0526001
    [20] 罗海波, 许凌云, 惠斌, 常铮.  基于深度学习的目标跟踪方法研究现状与展望 . 红外与激光工程, 2017, 46(5): 502002-0502002(7). doi: 10.3788/IRLA201746.0502002
  • 加载中
计量
  • 文章访问数:  179
  • HTML全文浏览量:  27
  • PDF下载量:  55
  • 被引次数: 0
出版历程
  • 收稿日期:  2018-01-10
  • 修回日期:  2018-02-20
  • 刊出日期:  2018-06-25

基于深度谱卷积神经网络的高效视觉目标跟踪算法

doi: 10.3788/IRLA201847.0626005
    作者简介:

    郭强(1982-),男,讲师,博士,主要从事图像智能处理、机器人智能导航等方面的研究。Email:royinchina@163.com

基金项目:

国家自然科学基金(61603415,61602322,61503274);辽宁省教育厅科学研究一般项目(L2015558,W2015393)

  • 中图分类号: TP391

摘要: 提出了一种基于深度频谱卷积神经网络的视觉目标跟踪算法。该算法在深度模型训练阶段采用谱池化替代深度卷积神经网络中的最大池化过程,用贝叶斯分类器替代softmax损失层计算最大分类值,并将其整合到深度神经网络跟踪框架中,通过新网络计算输入正负样本的概率分布预测目标位置。该算法充分利用谱池化在频域下降维到任意维度且计算高效的优点,克服了最大池化采样造成大量空间信息丢失的不足,提升了计算速度。在权威多场景视频标准测试库上对所提算法进行验证,结果验证了该算法兼顾了效率和跟踪精度,有效提高跟踪器的性能,在相同测试条件下,文中算法性能优于同类对比算法。

English Abstract

参考文献 (19)

目录

    /

    返回文章
    返回