HTML
-
实验基于中波红外目标数据集(MWIR)实施。该数据集在合作条件下对10类地面车辆目标(Pickup、SUV、BTR70、BRDM2、BMP2、T72、ZSU23-4、2S3、MTLB、D20)进行了全方位高分辨率红外图像采集,相关数据集的介绍可参见参考文献[13]。红外观测图像可以反映出不同目标的外形特点与热源分布特征,从而达到区分不同目标的目标。根据参考文献[14],文中对任一类目标选用120幅图像作为训练样本,另外100幅不同的图像作为测试样本。
从现有文献选取若干方法进行对比分析,包含参考文献[10]中基于SVM的方法,参考文献[11]中基于SRC的方法;参考文献[13]中采用CNN的方法以及参考文献[14]中联合深度特征的方法(记为JSR-Deep)。其中CNN方法仅仅采用一般的CNN网络实现端到端的特征学习与分类。为全面测试提出方法的性能,后续实验分别在原始测试样本、模拟噪声测试样本以及模拟遮挡测试样本上开展,通过上述三类场景的测试与对比,可对提出方法的有效性和稳健性进行较为综合的评估。
-
首先基于原始测试样本进行实验。如前文所述,原始测试样本与训练样本一样采集自合作条件,两者之间存在较高的相似度,因此识别难度相对较低。采用提出方法对各类目标的100个测试样本进行识别,正确识别样本数目分别为98、98、98、100、100、100、99、97、98、98 (对应4.1节描述的目标类别顺序),据此可得各类目标的正确识别率。为综合评估方法性能,文中定义平均识别率为
${P_{{\rm{av}}}}{\rm{ = }}{N_{\rm{c}}}/{N_{\rm{T}}}$ ,其中${N_{\rm{c}}}$ 为正确识别样本数,${N_{\rm{T}}}$ 为测试样本总数。在此条件下,分别计算文中方法和四类对比方法的平均识别率,如表1所示。对比可知,文中方法在当前条件下的平均识别率为98.4%,高于对比方法,体现其更强的有效性。与CNN方法相比,文中通过引入鉴别力更强的ResNet进一步提升了分类能力。与JSR-Deep方法相比,文中通过优化网络结构以及进行必要的深度特征筛选保证了特征的可靠性,进一步促进了识别性能的提升。Method Average recognition rate Proposed 98.4% SVM 94.5% SRC 95.1% CNN 96.6% JSR-Deep 97.8% Table 1. Comparison of reuslts from different methods on the orginal test samples
-
噪声发生在红外图像采集和后续处理的各个环节,因此实际过程中非合作条件下的红外图像往往受到较为严重的噪声干扰。相比合作条件下的高信噪比(SNR)红外图像,噪声干扰下的样本中,目标特性变得模糊,从而加剧了识别难度。文中在原始样本的基础上,按照设定信噪比的原则对其进行加性噪声添加,构造信噪比分别为10 dB、5 dB、0 dB、−5 dB和−10 dB条件下的噪声测试集。在此基础上,分别采用提出方法和对比方法对五个不同噪声测试集进行分类,统计结果如图3所示。文中方法在各个噪声水平下均取得最高的平均识别率,体现其最优的噪声稳健性。CNN方法在噪声干扰条件下性能下降最为剧烈,反映了深度学习模型对于噪声等异常条件存在一定的不适应性。JSR-Deep通过对多层次深度特征的联合表征,一定程度降低了噪声的影响,提升了识别稳健性。文中方法则是通过结合ResNet优势,同时进行剔除不必要的特征,确保了最终对于噪声样本的识别性能。
-
与噪声干扰的情形类似,在非合作条件下获取的红外目标图像也可以存在遮挡的情况,导致目标局部特性不能体现在获取的图像内。为测试提出方法在遮挡条件下的性能,文中首选对原始测试样本中的目标部分区域进行模拟遮挡。遮挡水平采用被遮挡目标区域占目标全部区域的比例进行衡量。据此,该实验构造了遮挡比例分别为5%、10%、15%、20%和25%条件下的测试集,进而对提出方法和对比方法进行测试,获得如图4所示的统计结果。由此可以看出,提出方法在遮挡条件下相对可保持更强的稳健性。CNN方法的结果与噪声干扰类似,性能下降最为剧烈。其余方法的性能趋势也与噪声干扰基本相同。文中方法综合了ResNet多层次深度特征的优势,通过进行了必要的特征筛选,确保影响正确识别的不良因素得以剔除,因此可进一步提高方法对于遮挡样本的识别稳健性。