留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于深度学习物体检测的视觉跟踪方法

唐聪 凌永顺 杨华 杨星 郑超

唐聪, 凌永顺, 杨华, 杨星, 郑超. 基于深度学习物体检测的视觉跟踪方法[J]. 红外与激光工程, 2018, 47(5): 526001-0526001(11). doi: 10.3788/IRLA201847.0526001
引用本文: 唐聪, 凌永顺, 杨华, 杨星, 郑超. 基于深度学习物体检测的视觉跟踪方法[J]. 红外与激光工程, 2018, 47(5): 526001-0526001(11). doi: 10.3788/IRLA201847.0526001
Tang Cong, Ling Yongshun, Yang Hua, Yang Xing, Zheng Chao. A visual tracking method via object detection based on deep learning[J]. Infrared and Laser Engineering, 2018, 47(5): 526001-0526001(11). doi: 10.3788/IRLA201847.0526001
Citation: Tang Cong, Ling Yongshun, Yang Hua, Yang Xing, Zheng Chao. A visual tracking method via object detection based on deep learning[J]. Infrared and Laser Engineering, 2018, 47(5): 526001-0526001(11). doi: 10.3788/IRLA201847.0526001

基于深度学习物体检测的视觉跟踪方法

doi: 10.3788/IRLA201847.0526001
基金项目: 

国家自然科学基金(61405248,61503394);安徽省自然科学基金(1708085MF137)

详细信息
    作者简介:

    唐聪(1989-),男,博士生,主要从事计算机视觉、深度学习、模式识别等方面的研究。Email:tangcong_eei@163.com

  • 中图分类号: TP391.4

A visual tracking method via object detection based on deep learning

  • 摘要: 提出了一种基于深度学习物体检测的视觉跟踪方法。该方法利用深度学习在特征表达上的优势,采用基于回归的深度检测模型SSD (Single Shot Multibox Detector)提取候选目标,并结合颜色直方图特征和HOG (Histogram of Oriented Gradient)特征进行目标筛选,实现目标跟踪。为了提升深度检测模型的物体检测性能,文中构建了多尺度目标搜索图,可在一张图上实现不同尺度的目标检测。在标准跟踪测试库上选取八个具有代表性的跟踪视频序列,并选取六种具有代表性的跟踪方法进行了对比测试。结果表明,文中所提方法在跟踪效果上,整体优于参与对比的其他算法,且对于物体姿态变化、尺寸变化、旋转变化、光照变化、复杂背景杂波等影响因素具有较好的鲁棒性。
  • [1] Sivanantham S, Paul N N, Iyer R S. Object tracking algorithm implementation for security applications[J]. Far East Journal of Electronics and Communications, 2016, 16(1):1-13.
    [2] Kwak S, Cho M, Laptev I, et al. Unsupervised object discovery and tracking in video collections[C]//IEEE International Conference on Computer Vision, 2015:3173-3181.
    [3] Luo Haibo, Xu Lingyun, Hui Bin, et al. Status and prospect of target tracking based on deep learning[J]. Infrared and Laser Engineering, 2017, 46(5):0502002. (in Chinese)
    [4] Mei X, Ling H. Robust visual tracking using l1 minimization[C]//IEEE International Conference on Computer Vision, 2010:1436-1443.
    [5] Ross D A, Lim J, Lin R S, et al. Incremental learning for robust visual tracking[J]. International Journal of Computer Vision, 2008, 77(1-3):125-141.
    [6] Wang N, Wang J, Yeung D Y. Online robust non-negative dictionary learning for visual tracking[C]//IEEE International Conference on Computer Vision, 2013:657-664.
    [7] Henriques J F, Rui C, Martins P, et al. High-speed tracking with kernelized correlation filters[J]. IEEE Transactions on Pattern Analysis Machine Intelligence, 2014, 37(3):583-596.
    [8] Babenko B, Yang M H, Belongie S. Robust object tracking with online multiple instance learning[J]. IEEE Transactions on Pattern Analysis Machine Intelligence, 2011, 33(8):1619-1632.
    [9] Grabner H, Grabner M, Bischof H. Real-time tracking via on-line boosting[C]//British Machine Vision Conference, 2006:47-56.
    [10] Hare S, Saffari A, Torr P H S. Struck:structured output tracking with kernels[C]//IEEE International Conference on Computer Vision, 2011:263-270.
    [11] Wang N, Yeung D Y. Learning a deep compact image representation for visual tracking[C]//International Conference on Neural Information Processing Systems, 2013:809-817.
    [12] Nam H, Han B. Learning multi-domain convolutional neural networks for visual tracking[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2016:4293-4302.
    [13] Held D, Thrun S, Savarese S. Learning to track at 100 FPS with deep regression networks[C]//European Conference on Computer Vision, 2016:749-765.
    [14] Ma C, Huang J B, Yang X, et al. Hierarchical convolutional features for visual tracking[C]//IEEE International Conference on Computer Vision, 2015:3074-3082.
    [15] Wang L, Liu T, Wang G, et al. Video tracking using learned hierarchical features[J]. IEEE Transactions on Image Processing, 2015, 24(4):1424-1435.
    [16] Wang N, Li S, Gupta A, et al. Transferring rich feature hierarchies for robust visual tracking[J]. Computer Science, 2015, arXiv:1501.0458.
    [17] Wang X, Hou Z, Yu W, et al. Robust visual tracking via multiscale deep sparse networks[J]. Optical Engineering, 2017, 56(4):043107.
    [18] Redmon J, Divvala S, Girshick R, et al. You only look once:unified, real-time object detection[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2016:779-788.
    [19] Liu W, Anguelov D, Erhan D, et al. SSD:Single shot multibox detector[C]//European Conference on Computer Vision, 2016:21-37.
    [20] Cai Z, Fan Q, Feris R S, et al. A unified multi-scale deep convolutional neural network for fast object detection[C]//European Conference on Computer Vision, 2016:354-370.
    [21] Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[C]//ICLR, 2015:arXiv:1409.1556.
    [22] Yin S F, Wang Y C, Cao L C, et al. Fast correlation matching based on fast fourier fransform and integral image[J]. Acta Photonia Sinica, 2010, 39(12):2246-2250. (in Chinese)
    [23] Bal A, Alum M S. Automatic target tracking in FLIR image sequences[C]//SPIE, 2004, 5426:30-36.
    [24] Wu Y, Lim J, Yang M H. object tracking benchmark[J]. IEEE Transactions on Pattern Analysis Machine Intelligence, 2015, 37(9):1834-1848.
    [25] Kalal Z, Matas J, Mikolajczyk K. P-N learning:bootstrapping binary classifiers by structural constraints[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2010, 238(6):49-56.
    [26] Zhang K, Zhang L, Yang M H. Real-time compressive tracking[C]//European Conference on Computer Vision, 2012:864-877.
    [27] Learnedmiller E, Sevillalara L. Distribution fields for tracking[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2012:1910-1917.
  • [1] 石峰, 陆同希, 杨书宁, 苗壮, 杨晔, 张闻文, 何睿清.  噪声环境下基于单像素成像系统和深度学习的目标识别方法 . 红外与激光工程, 2020, 49(6): 20200010-1-20200010-8. doi: 10.3788/IRLA20200010
    [2] 张钊, 韩博文, 于浩天, 张毅, 郑东亮, 韩静.  多阶段深度学习单帧条纹投影三维测量方法 . 红外与激光工程, 2020, 49(6): 20200023-1-20200023-8. doi: 10.3788/IRLA20200023
    [3] 赵洋, 傅佳安, 于浩天, 韩静, 郑东亮.  深度学习精确相位获取的离焦投影三维测量 . 红外与激光工程, 2020, 49(7): 20200012-1-20200012-8. doi: 10.3788/IRLA20200012
    [4] 冯世杰, 左超, 尹维, 陈钱.  深度学习技术在条纹投影三维成像中的应用 . 红外与激光工程, 2020, 49(3): 0303018-0303018-17. doi: 10.3788/IRLA202049.0303018
    [5] 钟锦鑫, 尹维, 冯世杰, 陈钱, 左超.  基于深度学习的散斑投影轮廓术 . 红外与激光工程, 2020, 49(6): 20200011-1-20200011-11. doi: 10.3788/IRLA20200011
    [6] 胡善江, 贺岩, 陶邦一, 俞家勇, 陈卫标.  基于深度学习的机载激光海洋测深海陆波形分类 . 红外与激光工程, 2019, 48(11): 1113004-1113004(8). doi: 10.3788/IRLA201948.1113004
    [7] 唐聪, 凌永顺, 杨华, 杨星, 路远.  基于深度学习的红外与可见光决策级融合检测 . 红外与激光工程, 2019, 48(6): 626001-0626001(15). doi: 10.3788/IRLA201948.0626001
    [8] 梁欣凯, 宋闯, 赵佳佳.  基于深度学习的序列图像深度估计技术 . 红外与激光工程, 2019, 48(S2): 134-141. doi: 10.3788/IRLA201948.S226002
    [9] 周宏强, 黄玲玲, 王涌天.  深度学习算法及其在光学的应用 . 红外与激光工程, 2019, 48(12): 1226004-1226004(20). doi: 10.3788/IRLA201948.1226004
    [10] 赵晓枫, 徐明扬, 王聃漂, 杨佳星, 张志利.  基于改进SSD的特种车辆红外伪装检测方法 . 红外与激光工程, 2019, 48(11): 1104003-1104003(10). doi: 10.3788/IRLA201948.1104003
    [11] 李方彪, 何昕, 魏仲慧, 何家维, 何丁龙.  生成式对抗神经网络的多帧红外图像超分辨率重建 . 红外与激光工程, 2018, 47(2): 203003-0203003(8). doi: 10.3788/IRLA201847.0203003
    [12] 罗海波, 何淼, 惠斌, 常铮.  基于双模全卷积网络的行人检测算法(特邀) . 红外与激光工程, 2018, 47(2): 203001-0203001(8). doi: 10.3788/IRLA201847.0203001
    [13] 余思泉, 韩志, 唐延东, 吴成东.  基于对抗生成网络的纹理合成方法 . 红外与激光工程, 2018, 47(2): 203005-0203005(6). doi: 10.3788/IRLA201847.0203005
    [14] 刘天赐, 史泽林, 刘云鹏, 张英迪.  基于Grassmann流形几何深度网络的图像集识别方法 . 红外与激光工程, 2018, 47(7): 703002-0703002(7). doi: 10.3788/IRLA201847.0703002
    [15] 耿磊, 梁晓昱, 肖志涛, 李月龙.  基于多形态红外特征与深度学习的实时驾驶员疲劳检测 . 红外与激光工程, 2018, 47(2): 203009-0203009(9). doi: 10.3788/IRLA201847.0203009
    [16] 张秀玲, 侯代标, 张逞逞, 周凯旋, 魏其珺.  深度学习的MPCANet火灾图像识别模型设计 . 红外与激光工程, 2018, 47(2): 203006-0203006(6). doi: 10.3788/IRLA201847.0203006
    [17] 姚旺, 刘云鹏, 朱昌波.  基于人眼视觉特性的深度学习全参考图像质量评价方法 . 红外与激光工程, 2018, 47(7): 703004-0703004(8). doi: 10.3788/IRLA201847.0703004
    [18] 唐聪, 凌永顺, 郑科栋, 杨星, 郑超, 杨华, 金伟.  基于深度学习的多视窗SSD目标检测方法 . 红外与激光工程, 2018, 47(1): 126003-0126003(9). doi: 10.3788/IRLA201847.0126003
    [19] 郭强, 芦晓红, 谢英红, 孙鹏.  基于深度谱卷积神经网络的高效视觉目标跟踪算法 . 红外与激光工程, 2018, 47(6): 626005-0626005(6). doi: 10.3788/IRLA201847.0626005
    [20] 罗海波, 许凌云, 惠斌, 常铮.  基于深度学习的目标跟踪方法研究现状与展望 . 红外与激光工程, 2017, 46(5): 502002-0502002(7). doi: 10.3788/IRLA201746.0502002
  • 加载中
计量
  • 文章访问数:  153
  • HTML全文浏览量:  17
  • PDF下载量:  131
  • 被引次数: 0
出版历程
  • 收稿日期:  2017-12-05
  • 修回日期:  2018-01-03
  • 刊出日期:  2018-05-25

基于深度学习物体检测的视觉跟踪方法

doi: 10.3788/IRLA201847.0526001
    作者简介:

    唐聪(1989-),男,博士生,主要从事计算机视觉、深度学习、模式识别等方面的研究。Email:tangcong_eei@163.com

基金项目:

国家自然科学基金(61405248,61503394);安徽省自然科学基金(1708085MF137)

  • 中图分类号: TP391.4

摘要: 提出了一种基于深度学习物体检测的视觉跟踪方法。该方法利用深度学习在特征表达上的优势,采用基于回归的深度检测模型SSD (Single Shot Multibox Detector)提取候选目标,并结合颜色直方图特征和HOG (Histogram of Oriented Gradient)特征进行目标筛选,实现目标跟踪。为了提升深度检测模型的物体检测性能,文中构建了多尺度目标搜索图,可在一张图上实现不同尺度的目标检测。在标准跟踪测试库上选取八个具有代表性的跟踪视频序列,并选取六种具有代表性的跟踪方法进行了对比测试。结果表明,文中所提方法在跟踪效果上,整体优于参与对比的其他算法,且对于物体姿态变化、尺寸变化、旋转变化、光照变化、复杂背景杂波等影响因素具有较好的鲁棒性。

English Abstract

参考文献 (27)

目录

    /

    返回文章
    返回