基于多尺寸特征叠加的SAR舰船目标检测方法

2021-05-06 14:50魏松杰张泽栋徐臻刘梅林陈伟
湖南大学学报·自然科学版 2021年4期
关键词:目标检测

魏松杰 张泽栋 徐臻 刘梅林 陈伟

摘   要:针对SAR图像中舰船目标的检测问题,单纯基于深度学习的图像处理技术难以达到检测准确性和实时性要求. SAR图像中目标尺寸较小,且易受噪声、光斑干扰,传统方法难以提取精細特征并克服复杂条件下的背景干扰. 针对以上问题,设计基于YOLOv3检测框架的端到端检测模型,借鉴了残差模块结构来避免网络退化问题. 同时结合深层与浅层的不同尺寸特征图检测,使用目标基础特征提取网络参数来避免重复训练初始化过程. 针对SAR 图像中海上舰船成像小目标的特点改进优化了神经网络结构,实现SAR海面广域舰船目标识别分类算法,并对检测模型进行轻量化压缩处理. 构建SAR图像舰船目标数据集并进行了多次目标检测识别分类实验,体现了提出的检测方法在复杂场景下有可靠的抗干扰能力和准确的目标检测识别性能.

关键词:SAR图像;目标检测;多尺度特征;深度神经网络

中图分类号:TN 957.52                          文献标志码:A

Method of Vessel Target Detection in SAR Images Based

on Multi-scale Feature Superposition

WEI Songjie1,ZHANG Zedong1,XU Zhen1,LIU Meilin2,3,CHEN Wei1

(1. School of Computer Science and Engineering,Nanjing University of Science and Technology,Nanjing 210094,China;

2. School of Aeronautics and Astronautics,Shanghai Jiao Tong University,Shanghai 200240,China;

3. Shanghai Institute of Satellite Engineering,Shanghai 200240,China)

Abstract:For marine vessel target detection in SAR images,deep learning technology alone usually has difficulty in satisfying the detection requirements in accuracy and timeliness. Vessel targets in SAR image are of small sizes and resolutions,which are easily interfered by noise and spot interruption. It is challenging to extract subtle features and eliminate background interference under complex conditions. To overcome the above problems,we propose an end-to-end new detection model based on YOLOv3 framework. The residual module structure is used to avoid network degradation. Combined with deep and shallow feature detection of different target sizes,we extract network parameters for basic features to avoid training from scratch. At the same time,according to the characteristics of small vessel targets in SAR image,the neural network structure is further optimized to achieve fast target detection and categorization in wide-area SAR images,and the detection model is compressed and light-weighted. We construct and utilize a SAR image dataset with different vessel targets for target detection and classification test. The experimental results show that the proposed detection method shows significant anti-jamming ability and detection performance in complex scenes.

Key words:SAR image;target detection;multi-scale features;deep neural network

舰船目标检测在海洋监测和国土安全领域的作用愈发重要,包括海事安全、海上交通、海洋污染防治和边境管制方面具有较为广泛的应用[1]. 合成孔径雷达(Synthetic Aperture Radar,SAR)通过保证相参性的脉冲发射信号,具有较高的分辨率,可以全天时、全天候工作,自问世以来,就在民用遥感、测绘和军事目标探测领域展现出优秀的能力[2],随着海洋船舶技术的发展,Sentinel-1、ERS系列和高分系列等卫星相继出现,基于SAR图像的舰船目标检测应用场景和应用效果不断扩展提高.

恒虚警处理(CFAR)可以对潜在的舰船区域进行提取,通过既定的检测方法确定阈值,输入信号中根据阈值确定像素是否为目标像素,为保持虚警的概率,阈值会根据输入中的噪声以适当的规则保持恒定,并降低噪聲、杂波等干扰对虚警率的影响. 针对目标运动时的距离分量导致方位偏移问题,文献[3]通过线性积分和长度归一化技术,将线性特征转化为点特征来构建概率模型实现CFAR检测. 文献[4]提出了一种基于非对称映射和选择性滤波方法的自适应阈值单元平均恒虚警率船舶检测算法,实验证明使用所提出的过滤步骤可以降低虚警率,且不降低检测率.

计算机视觉领域的优秀目标检测与框架不断推陈出新,基于深度学习的目标检测技术已经逐渐代替传统的方法,成为目标检测领域的主流技术,而卷积神经网络(Convolutional Neural Networks,CNN)[5]凭借其良好的特征自提取能力,共享卷积参数等天然优势,已经广泛地应用在目标检测领域. 基于卷积神经网络的检测方法主要分为基于候选区域的双阶段目标检测方法与单次目标检测方法. 其中以R-CNN[6]、Fast R-CNN[7]、Faster R-CNN[8]、R-FCN[9]和Mask R-CNN[10]为代表的基于候选区域的双阶段目标检测方法通过特征图提取候选区域,判断锚点属于前景或背景,利用边框回归与分类器修正得到检测目标分类信息和位置坐标. 而YOLO[11]就是基于回归策略的单阶段检测方法,直接使用一个卷积神经网络同时预测边界框的位置和类别. SSD[12]以YOLO 基于回归的思想为基础,使用小卷积滤波器预测目标类别和偏移,并通过将其应用于多个特征映射可以达到多尺度检测. 之后在YOLO和SSD的基础上又衍生出了YOLOv2[13]、YOLOv3[14]、RetinaNet[15]、RefineDet[16]、M2Det[17]等算法,在检测精度和效率上更加优秀.

以上述多个目标检测算法为基础,文献[18]以RetinaNet为基础结构,对特征金字塔网络进行改进,提升特征的提取效果,使用迁移学习等方法,相比原算法有更高的准确率. 文献[19]针对小目标密集难以检测问题,针对舰船目标设计不同尺度的转换功能,连接到多个特征地图以获取多比例尺特征,加入上下文特征以辅助复杂目标的检测,达到了较好的检测性能. 文献[20]设计包括两层结构的级联卷积框架,首先对目标初步的快速筛选,然后借鉴迁移学习方法初始化特征提取网络,结合矩形旋转框等技术可以保证达到较好的检测精度的条件下优化了检测效率. 文献[21]提出一种多输入分辨率CNN模型,模型中不同输入分辨率的组合提高了提取特征的能力,在多类别通用数据集上交叉评估,分类精度得以提高. 文献[22]在Faster-RCNN网络的基础上针对SAR图像舰船目标调整锚框大小以及损失函数,检测精度和效率有相应的提高,并制作了舰船检测领域的数据集,包含上千图片和不同形态、特点的目标,为舰船目标检测领域提供了良好的检测样本. 文献[23]提出一种基于多尺度特征融合的卷积神经网络来生成更加丰富的语义信息,在SAR图像舰船目标识别体现出较好的效果. 本文同样以多尺度特征融合为主要思想,在特征融合过程中应用更深层次的特征图,增加一次融合操作,此外特别针对舰船目标独有特征设计筛选过程,完成SAR图像舰船目标的识别,同时完成舰船目标的分类功能.

针对SAR舰船目标中不同尺度目标对检测结果的影响,本文借鉴YOLOv3检测算法中可变尺度特征图和回归策略,设计了多层次特征检测的卷积神经网络,通过改进YOLOv3模型增强网络对不同尺度舰船目标的适应能力,对多种尺度的检测目标使用相适应特征图进行提取,对检测损失函数进行相应的改进,模型通过共享参数和剪枝压缩进行轻量化处理,同时建立了包含四种类别的舰船检测数据集,使用预训练权重等方法,进行了多组对比分析实验进行验证.

1   模型方法

模型的整体流程如图1所示,图中数字对应文中相应章节. 首先对原始的SAR图像进行图像的预处理操作,然后将图像裁剪成适合神经网络接受的大小,通过特征叠加网络得到不同尺寸的特征图,对每种特征图的预测结果进行筛选,区分正负样本,然后通过计算损失函数的大小来确定最终检测结果.

1.1   模型设计流程

1.1.1   残差网络模块

基于前馈神经网络的结构,随着隐藏层数的增加,对输入特征抽象层次越来越高,可提取不同层次特征越丰富,由此增加网络的宽度和深度可以对网络的性能有相应的提升,但随着网络层数的不断增加,由于样本中噪声干扰或模型复杂度过高,在反向传播过程中网络权值参数的连乘产生梯度弥散或爆炸问题.

残差网络(Residual Network) 的出现很好地解决了这些问题,对于网络层数的增加而出现的退化问题,使得在中间某一层已经达到了较好的参数调整,所以更深层次的网络至少保证了不低于低层次的网络,恒等快捷连接(shortcut connection)可以使映射对输出的变化更灵敏,由于其学习的是两层参数之间的差值,比直接拟合效果的作用占比更大,所以在训练更深网络的同时,可以保证性能不会退化,残差网络中的残差模块结构如图2所示. 这样的结构对于恒等映射,上一层的输出x到更深一层的输出H(x),参数的学习调整函数F(x)会不断拟合两者相等的关系,而残差结构会学习F(x)=H(x)-x这个差值,因为相比通过非线性层来拟合,将残差推到0会更加容易. 使用这种残差学习方法没有减小回传损失,但差值的学习对比原来线性学习的参数量更小,相当于增加了对损失误差的灵敏度,在不断增加网络层数后也可以保持精度的平稳率.

1.1.2   网络结构

特征融合结构如图3所示,其基本原理借鉴YOLOv3目标检测算法,通常卷积操作会获得更高层次的语义信息,但随着多次下采样操作,对于舰船等低分辨率小目标提取的信息不足,增加特征融合结构,利用特征金字塔中不同尺寸特征图结合检测有利于提取不同分辨率、多尺寸目标的语义信息.

特征提取网络如图4所示,由两种步长3×3和1×1的卷积层叠加而成.

检测的基本过程是产生不同尺寸的先验框,通过损失函数不断调节位置,使用非极大值抑制算法根据目标分类得到的边界框概率排序后,去掉概率得分较低的边框得到结果,筛选出预设阈值以上的集合.

对于尺寸为416×416的原始图片会生成4种不同尺寸的特征图,如图5所示,对应提取不同分辨率的语义信息,因为直接使用多尺度特征图分别进行不同的检测生成的参数量过大,为此多尺度特征图通过上采样与浅层特征融合可以使小目标可以同时关注低分辨率的部分特征与全局信息.

如原始图片尺寸为416×416,经过5次卷积操作和后随的2步长的池化操作,其中一个输出的张量为13×13×255,为了使用深层特征,经过步长为2的上采样后,将特征层维度与26×26的特征图保持一致进行后续的处理.

同样26×26的张量也经过步长为2的上采样与第一次下采样后的特征图维度相同,同样深浅层特征融合分别为61层和85层,36层和97层,此外经过对YOLOv3特征融合网络的增改,进一步将11层与步长为2 上采样后的109层特征融合,從而更加充分地发挥层次结合的优势. 不同尺寸的特征图的感受野映射原始图片区域大小不同,将语义更强但尺寸更小的特征图增加分辨率,融合更多语义信息达到多尺度检测的目的. SAR图像中舰船目标相比其他目标有其独有的特点,本文考虑表1中多种特征设计网络结构.

SAR图像中的舰船若处在运动状态中通常会展现尾迹,在图像中体现为船尾后的白色像素轨迹,这也是识别为舰船目标的重要特征,通过在特征融合之前增加卷积层数,更有效地提取目标的局部特征.

此外,实验中使用的为10 m分辨率的SAR图像,根据查阅常用民用舰船的最大最小尺寸约为10 m到460 m,考虑船身的长宽比及高度等特点,映射到图像中像素约占10到200像素点,在检测框筛选阶段设置相应的阈值筛选掉不符合尺度的目标,同时设置船身长宽比例临界值为1到10,目标长宽比例越界的筛选掉. 同样,除非在港口停泊处,在海面舰船航向中,方向基本水平一致,通过计算初步筛选目标舰船的斜率考虑舰船集群的大致航行方向计算平均斜率,在检测框筛选阶段筛选目标斜率与平均斜率差值大于0.5的目标,船身与水平方向的斜率可以由目标像素的坐标位置(Xmin,Ymin),(Xmax,Ymax)推算得出,见图6.

1.1.3   损失函数设置

网络将输入图像划分成S×S个网格,每个网格会预先产生3种尺寸的边界框,若网格中心点置于目标则会由其负责检测. 每个网格预测出检测物体边界框的4个偏移坐标、以及置信度得分,但因为YOLOv3采用了多个尺度的特征融合,边界框的实际数量较大. 因为每种规模特征图对应4个边界框,所以得到的张量是S×S×[3×(4+1+80)]即255的张量深度,其中包含边框左上角的横纵坐标和边框的长宽、边框置信度以及默认80种分类预测.

损失函数为网络预测结果与真实结果之间的偏差,这里损失函数由边框的位置误差、边框的置信度误差和对象分类的误差三部分组成.

通过设置预测边界框与真实边界框的交并比来评估位置误差(见图7),在使用非极大抑制法筛选时考虑真实目标框与预测框之间的重叠面积和边框中心点位置,加速回归效率,使用DIoU(Distance-IoU)边框回归机制(见图8).

IoU的测量标准只有bounding box与ground truth的面积重叠比率,考虑加入两个框之间相对距离与并集所在最小矩形的相对大小,如下式:

式中:c表示bounding box的中心,c*表示ground truth的中心,E为对两点计算欧几里得度量,在二维图像上即两点间距离,d表示两者并集所在最小矩形的对角线长度,通过这种IoU损失可在预测框与真实框分离或中心点处于同一水平线时,由于闭包约束可以更快地降低损失,加快收敛.

式中:w和h分别是ground truth的宽和高,x和y为左上角坐标点,α和β为权重平衡因子,共S × S个栅格,B为当前栅格中预测框总数,Kobji    为i号栅格中检测到的目标,Kobjij    为i号栅格中编号为j的预测框检测到的目标,Knoobjij      为i号栅格中编号为j的预测框未检测到的目标. Cji为预测框是否负责某个对象的参数置信度分数,P ji为分类概率,对应的真实框参数信息分别为.

1)预测框的位置误差:

Kobjij    会将DIoU比较大的那个预测框加入误差计算. 对于尺寸较大对象框的长宽,通过取平方根,以避免灵敏度降低,同时降低误差敏感性较大的小尺寸对象的作用,所以使用平方根平衡两种尺寸预测框对位置误差产生的影响.

2)预测框的置信度误差:

根据交叉熵来表示置信度误差,包括边界框是否为前后景及是否包含目标的置信分数,为避免非目标置信分数对整体置信误差的负面影响过大,产生混淆,通过乘以权重因子β减少不含检测目标的预测框对损失函数的作用占比,这里设置β  = -0.3.

3)对象分类的误差:

若i号栅格编号为j的预测框中不包含目标,此项误差损失不会参与计算,对象分类的损失误差同样使用交叉熵损失函数进行收敛.

1.2   模型压缩

通常情况下经过卷积神经网络多轮训练所得的模型中会存在冗余信息,随着模型复杂度的增加,所得的模型需要计算的浮点数操作会越来越大,模型体积也会过大,这样不利于模型在存储空间、运算资源受限的平台上部署使用,因此需要针对网络模型特点对其进行压缩操作,本文用于深度压缩的方法有权值参数共享和剪枝两种.

1.2.1   权值参数共享

权重参数共享可以显著减少网络所使用的参数量,图片经过卷积操作后,与特征图之间的映射关系存储了大量参数,通过随机散列函数将参数重分配,使得部分重复参数可以共同使用,网络参数矩阵经过聚类等方式重新存储,使用较少的参数可以替换原参数矩阵.

权重参数共享存储如图9所示,假设两层神经元之间的参数由矩阵V表示,经过散列存储的参数集由R表示,重新分配的参数经过不同散列函数映射,由原来28个参数降低到6个,压缩了4倍,由于原来重复的参数信息都在集合R中,基本上保持泛化性能的同时,大大减少了神经网络的存储需求.

1.2.2   剪枝

神经网络的各层连接通常如图10所示,相邻两层的的神经元连接数目较多,其中有很多冗余单元,如果不对密集网络进行裁剪操作会产生大量浮点乘法计算. 两层之间每条连接线都有相应的权值,通过去除权值贡献较低的连接,即将较小的权重置零来去除神经键,若某一神经元与上下两层的连接权重都为零则去除次神经元,这样在基本保证模型准确率的前提下大大减少了参数量,将原权值矩阵稀疏化,从而降低网络的复杂度.

裁剪部分主要针对BN层进行,BN层引入了γ和β两个可学习重构参数. 针对每次反向传播过程,对L1正则梯度和BN层的梯度进行结合,设置一个有序列表存储裁剪BN层中γ参数,设置裁剪阈值为0.9进行裁剪. 未经过阈值筛选的γ 通道去掉其权值大小,重新得到本层的结构并将β参数与后续的卷积模块中BN的运行方差参数结合计算.

2   实验结果与分析

2.1   实验平台与数据集

实验所使用的计算机硬件平台是64位Windows10操作系统,中央处理器为Intel(R) Core(TM) i5-8300H CPU@ 2.3GHz,独立显卡型号为NVIDIA GTX 1080,16 GB内存,CUDA加速环境为CUDA 8.0和cudnn 6.0,采用的网络开发框架为Darknet.

实验数据集采集自欧洲航天局哥白尼计划(GMES)中的地球观测卫星哨兵一号(Sentinel-1)卫星所拍摄的雷达影像,采集时间为2017-06-26 T 23:03:40.552573到2017-06-26 T 23:04:05.551041,数据类型为IW GRD(干涉宽幅模式的地距多视产品),对诺福克港、圣地亚哥港、迪拜港等大型港口附近的舰船图像目标进行处理,制作了PASCAL-VOC格式舰船目标遥感数据集,人工标注了4种不同种类的民用舰船. SAR图像分为方位和距离分辨率,方位分辨率为不同波束的方位向所能辨别的两目标之间最小距离,距离分辨率为同一方位角距离雷达不同被区分的最小距离.

该数据集包含不同距离分辨率(5 ~ 20 m)以及不同背景下(近岸、近海)不同尺寸的舰船目标,样本场景的多样性保证了训练出来的模型有更强的泛化能力,同时采用旋转和反转两种方式对数据集进行样本扩充,共计1 241个目标,以4 ∶ 1划分为训练集和测试集. 本文使用开源工具 LabelImg 对数据集中的遥感图像进行了人工标注,图片标注后,都会对应生成相同文件名且后缀为.xml 的文件,该文件依次记录了对应图片中所有标注框的位置和目标类别等信息.

2.2   网络训练

使用在ImageNet数据集上预先训练好的特征提取网络模型,对训练参数进行调整.

模型优化算法的方法采用随机梯度下降法(SGD),批量大小取64更新控制训练样本量,学习速率在训练开始为0.001,设置学习率衰减系数0.000 5防止过拟合,为使批处理训练时权值参数震荡加速收敛,使用带有动量因子梯度代替原梯度进行参数更新,默认设为 0.9. 训练过程中损失函数的变化情况如图11所示,经过20 000步迭代后网络基本收敛.

2.3   实验结果评估

为评估算法的检测效果,采用如下式所示标准对检测器的性能进行定量化描述:

式中:Ntp表示正确检测的样本数,Nfp表示错误检测的样本数,Nfn表示漏检目标的样本数,准确率(precision)表示在所有被预测的目标样本中,预测正确的比例,召回率(recall)表示预测正确的样本数在所有真实样本数中的比例. 同时,使用如下式所示的F1值来表示算法的综合性能.

首先对测试集的实验结果进行分析,测试结果如表2所示.

图12给出一些典型的测试结果例图,其中检测出的各类目标分别用不同的方框标记出来. 不同场景下算法的检测结果如图13所示. 其中图13的第一行、第二行为海面舰船目标检测结果,该场景下舰船的特点是目标相对背景较小,容易造成漏检以及定位不准的问题,部分目标有较严重的拖尾痕迹,算法可以较为准确地完成对海面舰船目标的检测. 图13的第三行为复杂背景下的近岸舰船目标检测,该类舰船目标特点是背景复杂,舰船目标与岸边建筑难以区分,有若干港口处模糊小目标漏检. 可以看出,算法对河道、港口等多种背景下不同尺寸的艦船目标均有较好的检测效果.其次,为测试算法的泛化能力,同时准备了马六甲海峡、安特卫普港和长三角等大型港口的若干原始大幅面SAR图像进行测试,测试图片幅面平均为25501×16731像素,对比另外两种检测算法部分检测结果如图13所示,实验表明,本文方法完成端到端的检测,平均准确率为91.39%,召回率为93.03%,F1值为92.20%,可以达到对SAR图像舰船目标的有效处理.

表3以帧/s(Frame per second)给出了检测程序运行的效率,有助于评估本文方法的实时数据处理和目标检测的性能.

表3同时给出了本文方法与其它目标检测算法在舰船数据集上的测试性能对比,本文方法的准确率为91.39%,比SSD和Faster-RCNN分别提高了4.03%和2.13%,得益于网络结合深层特征的多尺度检测,采用特征映射模块和残差网络模块,获得了更丰富的语义信息.

本文對实验用的模型进行了压缩,并测试了压缩后模型的识别能力. 良好的模型压缩方法在保证不损害检测效率的前提下追求更大的空间节省和更快的运行效率. 表4描述了模型压缩前后的识别正确率、压缩率以及效率. 由表可知,本文提出的权值参数共享+剪枝的方法将模型从272 MB压缩到了34 MB,压缩了8倍,并且精度仅损失1.23%,证实了压缩方法的有效性.

3   结   论

本文设计了一种基于YOLOv3框架的水面SAR遥感图像中舰船目标快速识别和分类方法,通过采集并标注SAR图像舰船目标样本,制作相应的数据集用于模型训练,结合残差单元与多尺度训练,增强网络对不同尺寸目标尤其小目标的良好适应性,针对舰船目标特点设计网络检测、筛选过程. 采用基于相对距离的边框交并比策略与权重因子的损失函数,提高收敛速度与检测效果,使用权值参数共享和剪枝方法对模型进行轻量化处理. 端到端的训练简化了训练流程,无需人为进行子问题的划分,且通过实验表明模型对新数据集有较好的适应能力. 同时本文研究也为星载SAR等目标识别系统的设施提出了新的思路,基于卷积神经网络等深度学习方法的SAR图像舰船目标检测预计将面向实时、广域、高速、精准的应用需求不断发展完善.

参考文献

[1]    尹雅,黄海,张志祥. 基于光学遥感图像的舰船目标检测技术研究[J]. 计算机科学,2019,46(3):82—87.

YIN Y,HUANG H,ZHANG Z X. Research on ship detection technology based on optical remote sensing image [J]. Computer Science,2019,46(3):82—87. (In Chinese)

[2]    汪元美. 合成孔径雷达参量对图象质量的影响[J]. 湖南大学学报(自然科学版),1983(1):28—49.

WANG Y M. Influence of SAR parameters on image quality[J]. Journal of Hunan University(Natural Sciences),1983(1):28—49.(In Chinese)

[3]    NAN J,WANG C,ZHANG B,et al. Ship wake CFAR detection algorithm in SAR images based on length normalized scan[C]//2013 IEEE International Geoscience & Remote Sensing Symposium Igarss. July 21-26,2013,Melbourne,VIC,Australia,IEEE,2013:3562—3565.

[4]    AVOLIO C,COSTANTINI M,MARTINO G D,et al. A method for the reduction of ship-detection false alarms due to SAR azimuth ambiguity[C]//2014 IEEE Geoscience & Remote Sensing Symposium. July 13-18,2014,Quebec city,QC,Canada,IEEE,2014:3694—3697.

[5]    KRIZHEVSKY A,SUTSKEVER I,HINTON G E. Imagenet classification with deep convolutional neural networks[J]. Communication of the ACM,2017,60(6):84—90.

[6]    GIRSHICK R,DONAHUE J,DARRELL T,et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//2014 IEEE conference on computer vision and pattern recognition,June 23-28,2014,Columbus,OH,USA:IEEE,2014:580—587.

[7]    GIRSHICK R. Fast R-CNN[C]//2015 IEEE International Conference on Computer Vision,Dec.7-13,2015,Santiago,Chile,IEEE,2015: 1440—1448.

[8]    REN S,HE K,GIRSHICK R,et al. Faster R-CNN: Towards real-time object detection with region proposal networks [J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2015,39(6): 1137—1149.

[9]    DAI J F,LI Y,HE K M,el at. R-FCN: object detection via region-based fully convolutional networks [EB/OL]. 2016:arXiv:1605.06409[cs.cv]. https://arXiv.org/abs/1605.06409.

[10]  HE K,GKIOXARI G,DOLLAR P,et al. Mask R-CNN[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2020, 42(2):386—397.

[11]  REDMON J,DIVVALA S,GIRSHICK R,et al. You only look once: Unified,real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition,June 27-30,2016,Las Vegas,NV,USA,2016: 779—788.

[12]  LIU W,ANGUELOV D,ERHAN D,et al. SSD: Single shot multibox detector[M]//Computer vision-ECCV 2016,Cham:Springer International Publishing,2016,21—37.

[13]  REDMON J,FARHADI A. YOLO9000: Better,faster,stronger[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition,July 21-26,2017,Honolulu,HI,USA,IEEE,2017:6517—6525.

[14]  REDMON J,FARHADI A. Yolov3: An incremental improvement [J]. ArXiv Preprint ArXiv:1804.02767,2018.

[15]  LIN T Y ,GOYAL P ,GIRSHICK R ,et al. Focal loss for dense object detection[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2020,42(2):318—327.

[16]  ZHANG S,WEN L,BIAN X,et al. Single-shot refinement neural network for object detection[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,Jun. 19-21,2018,Salt Lake City,Utah,USA,IEEE. 2018: 4203—4212.

[17]  ZHAO Q,SHENG T,WANG Y,et al. M2Det: A single-shot object detector based on multi-level feature pyramid network[J]. Proceedings of the AAAI Conference on Artificial Intelligence,2019,33:9259—9266.

[18]  劉洁瑜,赵彤,刘敏. 基于RetinaNet的SAR图像舰船目标检测[J]. 湖南大学学报(自然科学版),2020,47(2):85—91.

LIU J Y,ZHAO T,LIU M. Ship target detection in SAR image based on RetinaNet[J]. Journal of Hunan University(Natural Sciences),2020,47(2):85—91.(In Chinese)

[19]  GUI Y C,LI X H,XUE L,et al. A scale transfer convolution network for small ship detection in SAR images[C]//2019 IEEE 8th Joint International Information Technology and Artificial Intelligence Conference (ITAIC). Chongqing,China,IEEE,2019:1845—1849.

[20]  陈慧元,刘泽宇,郭炜炜,等. 基于级联卷积神经网络的大场景遥感图像舰船目标快速检测方法[J]. 雷达学报,2019,8(3):413—424.

CHEN H Y,LIU Z Y,GUO W W,et al. Fast detection method of ship target in large scene remote sensing image based on cascaded convolutional neural network[J] . Journal of Radars,2019,8(3):413—424. (In Chinese)

[21]  BENTES C,VELOTTO D,TINGS B. Ship classification in TerraSAR-X images with convolutional neural networks[J]. IEEE Journal of Oceanic Engineering,2017,43(1):258—266.

[22]  李健伟,曲长文,彭书娟,等. 基于卷积神经网络的SAR图像舰船目标检测[J]. 系统工程与电子技术,2018,40(9):1953—1959.

LI J W,QU C W,PENG S J,et al. Ship target detection in SAR image based on convolutional neural network[J]. Journal of Systems Engineering and Electronics,2018,40(9):1953—1959. (In Chinese)

[23]  杨龙,苏娟,黄华,等. 一种基于深层次多尺度特征融合CNN的SAR图像舰船目标检测算法[J]. 光学学报,2020,40(2):132—140.

YANG L,SU J,HUANG H,et al. SAR Ship detection based on convolutional neural network with deep multiscale feature fusion[J]. Acta Optica Sinica,2020,40(2):132—140. (In Chinese)

收稿日期:2020-07-22

基金项目:国家自然科学基金资助项目(61802186, 61472189),National Natural Science Foundation of China(61802186, 61472189);上海航天科技创新基金(SAST2019-033),SAST Innovation Fund(SAST2019-033)

作者简介:魏松杰(1977—),男,天津人,南京理工大学副教授,博士

通信联系人,E-mail:zandyz@njust.edu.cn

猜你喜欢
目标检测
多视角目标检测与跟踪技术的研究与实现
视频中目标检测算法研究
行为识别中的人体运动目标检测方法
移动机器人图像目标识别
基于背景建模法的运动目标检测
基于P3电位的目标检测研究
智能视频技术在电力系统领域的应用
相关K分布杂波中扩展目标积累检测性能分析
基于连通域标记的目标检测算法设计与实现
一种改进的峰均功率比判源方法