RSDD-SAR:SAR舰船斜框检测数据集

2022-09-01 02:20徐从安李健伟姚力波闫文君汪韬阳
雷达学报 2022年4期
关键词:舰船切片算法

徐从安 苏 航 李健伟 刘 瑜 姚力波 高 龙 闫文君 汪韬阳

①(海军航空大学 烟台 264000)

②(北京理工大学前沿技术研究院 济南 250300)

③(92877部队 舟山 316000)

④(武汉大学 武汉 430000)

1 引言

合成孔径雷达(Synthetic Aperture Radar,SAR)是一种主动式微波成像雷达,具有全天时、全天候的观测能力,在民用和军用领域应用广泛。舰船检测作为SAR图像解译的重要分支,对于海上商业和军事活动监管具有重要意义。

近年来,随着深度学习的发展,基于深度学习的检测算法取得了突破性的进展。相较于传统方法,深度学习算法具有无需手工设计特征、泛化能力强、可端到端训练等优点,精度有了较大提升,因此逐渐成为检测算法的主流。

但深度学习作为数据驱动的算法,其训练离不开大量数据的支撑,因此相关学者也制作并公布了一些SAR舰船检测数据集。自从Li等人[1]公开第1个SAR舰船检测数据集SSDD,基于深度学习的SAR舰船检测工作开始有了较大的进展[2—4]。SSDD之后,孙显等人[5]公布了AIR-SARShip-1.0和AIRSARShip-2.0数据集,Wang等人[6]公布了SARShip-Dataset数据集,Wei等人[7]公布了HRSID数据集,Zhang等人[8]公布了LS-SSDD-v1.0数据集,Lei等人[9]公布了SRSDD-v1.0数据集,为SAR舰船检测任务提供了更强力的数据支撑。此外,Huang等人[10]公布了首个用于SAR舰船识别任务的数据集OpenSARShip,Li等人[11]对OpenSARShip进一步扩充,公布了OpenSARShip 2.0,Hou等人[12]公布了高分辨SAR舰船识别数据集FUSAR-Ship。现有公开数据集详细信息如表1所示。

表1 现有公开数据集详细信息Tab.1 Detailed information of existing public datasets

上述数据集在SAR舰船检测识别中获得了广泛应用,其中,除了SSDD数据集后续添加斜框标注[13],HRSID数据集语义分割标注可转换为斜框标注,及SRSDD-v1.0数据集,其余检测数据集都是基于垂直边框标注。相较于垂直边框标注,斜框标注不仅可以精准地表示舰船目标,减少冗余干扰,而且可以获取航向、长宽比等属性信息。如图1(a)所示,在近岸港口码头区域,环境较复杂,垂直边框标注舰船目标易受岸上建筑物影响,尤其对于密集排列的舰船目标,垂直边框标注会造成舰船目标之间重叠,影响检测性能。如图1(b)所示,使用斜框标注舰船目标则可生成紧密的旋转边框,避免岸上建筑物干扰和重叠问题。如图2所示,使用斜框标注舰船目标还可获取长宽比和航向信息,对后续的航迹预测、态势估计等具有重要意义。

图1 不同标注方式比较Fig.1 Comparison of different annotation methods

图2 舰船目标航向和长宽比信息Fig.2 The course and aspect ratio information of ship target

然而现有数据集仅SSDD,HRSID,SRSDDv1.0可用于斜框检测,数据量远少于垂直边框检测数据集,难以满足算法发展和实际应用需求。因此,本文公开了SAR舰船斜框检测数据集RSDDSAR,该数据集由84景高分3号数据和41景TerraSAR-X数据[14]切片及2景未剪裁大图,共127景数据构成,包含多种成像模式、多种极化方式、多种分辨率切片7000张,舰船实例10263个,通过自动标注和人工修正相结合的方式高效标注。同时,本文对几种常用的光学遥感图像斜框检测算法及SAR舰船斜框检测算法进行了实验与分析,并形成了基准指标,可供相关学者参考。最后,本文通过泛化能力测试,分析讨论了RSDD-SAR数据集训练模型的泛化能力。

2 数据集构建

2.1 数据集基础信息

RSDD-SAR数据集由84景高分3号数据和41景TerraSAR-X数据切片及2景未剪裁大图,共127景数据构成。附录1给出了每景数据的详细信息,包含传感器类型、经纬度、获取时间、成像模式、分辨率、极化方式、产品级别、入射角、成像幅宽、编号信息。如表2所示,以景号为1的数据为例,传感器类型为高分3号,经纬度为(E121.0,N37.9),获取时间为2017年10月17日,成像模式为FSII,分辨率为10 m,极化方式为HH,HV,产品级别为L1A级,入射角为19°~50°,成像幅宽为100 km,编号为0-1。

表2 原始数据详细信息Tab.2 Detailed information of the raw data

2.2 数据集标注

RSDD-SAR数据集斜框定义方式如图3所示,采用长边定义法。记斜框中心点坐标为 (cx,cy),长边为h,短边为w,x轴正方向与斜框长边之间的夹角为θ,其中θ∈[-π/2,π/2),顺时针为正,逆时针为负,斜框标注记为( cx,cy,h,w,θ)。

图3 斜框定义方式Fig.3 Rotated bounding box definition method

RSDD-SAR数据集通过自动标注与人工修正相结合的方式高效标注,流程如图4所示,主要包括以下6个步骤:

图4 标注流程图Fig.4 Annotation procedure

步骤1 数据预处理

数据预处理流程如图5所示,主要包括5个步骤:(1)原始高分3号数据以.tiff格式存储,TerraSAR-X数据以.cos格式存储,首先利用软件ENVI[15]和PIE-SAR[16]读取原始SAR数据,获取64位复数数据,由32位浮点型实部和32位浮点型虚部组成;(2)将复数数据转换为32位浮点型幅度数据,幅度是SAR影像最主要的特征之一,反映不同物体后向散射强弱;(3)裁剪多余陆地区域,获取海上感兴趣区域;(4)通过线性灰度拉伸将32位浮点型数据转换为8位整型数据,提高数据的可视性、减少数据量大小;(5)为与PASCAL VOC数据集[17]格式保持一致,将单通道扩展为3通道.jpg格式数据。另外,2景未剪裁大图仅利用步骤1中的(1),(2),(4),(5)步骤处理,其中高分3号未剪裁大图尺寸为14848×40448,TerraSAR-X未剪裁大图尺寸为14336×32256。

图5 数据预处理流程Fig.5 Data preprocessing procedure

步骤2 数据切片

数据切片方式如图6所示,将步骤1处理好的幅度数据不重叠地切分成尺寸为512×512的切片,并根据切片所在行/列对切片命名,如编号为1的数据,第1行、第3列切片命名为1_0_2。

图6 数据切片方式Fig.6 Data cutting method

步骤3 训练SAR舰船目标斜框检测模型

在SSDD数据集上训练文献[18]所提Polar Encodings SAR舰船斜框检测模型,迭代轮次设为120,训练批次大小设为4,训练集、测试集图像尺寸统一设为512×512,其余参数设置与文献[18]相同,保存训练过程中的最优模型。

步骤4 自动标注

利用步骤3训练好的斜框检测模型对步骤2中的切片自动标注,并设置较低的置信度阈值,初步筛选自动标注切片。由于置信度阈值较低,可筛选更多包含舰船目标的切片,但同样会筛选大量陆地建筑物虚警切片。

步骤5 人工修正

步骤4筛选出的自动标注切片主要有3种类型:陆地建筑物虚警切片、简单场景切片、复杂场景切片。陆地建筑物虚警切片如图7(a)所示,从筛选出的自动标注切片中直接剔除虚警切片。简单场景切片如图7(b)所示,自动标注结果较准确,使用ro-LabelImg工具[19]微调自动标注结果以生成更精准的标注,微调结果如图7(c)所示。复杂场景切片如图7(d)所示,存在大量的虚警和漏检,使用roLabelImg工具结合自动标注结果再标注,再标注结果如图7(e)所示。

图7 人工修正示例Fig.7 Manual modification examples

步骤6 Google Earth纠正

近岸场景下岸上建筑物、设施等的后向散射系数较强,导致近岸舰船目标标注困难,而光学遥感图像则不受此影响。因此,RSDD-SAR数据集结合Google Earth对近岸场景切片进行纠正。由于Google Earth不能获取实时历史影像,无法直接纠正舰船标注,但岸上建筑物通常不变,可作为标注参考。因此,本文选取与SAR数据成像时间最近的Google Earth历史影像,参考岸上建筑物信息提高标注准确性。如图8所示,图8(b)为希腊比雷埃夫斯港2019年9月4日成像的1景SAR影像,图8(a)为与该港口成像时间最近的Google Earth历史影像,成像时间为2019年8月28日,由于获取时间不同,两幅图像中舰船目标不一致,但是岸上建筑物信息基本无变化。

图8 Google Earth纠正Fig.8 Google Earth correction

最终,从14万余张切片中通过自动标注筛选出3万余张切片,人工修正和Google Earth纠正后形成切片7000张,包含舰船实例10263个,从中随机选取5000张作为训练集,另外2000张作为测试集,其中,测试集被进一步划分为近岸测试集和离岸测试集。

图9(a)展示了数据集中某幅切片的舰船标注样例,图9(b)为对应的.xml文件,该文件中包含文件名、极化方式、分辨率、切片尺寸、斜框标注等信息。以图9(b)为例,文件名为86_6_14.xml,极化方式为VV,分辨率为3 m,切片尺寸为(512,512,3),斜框中心点坐标为(178.58,87.68),长边为77.73,短边为16.29,角度为0.27。

图9 标注示例Fig.9 Annotation example

RSDD-SAR数据集结构如图10所示,包含JPEGImages,Annotations,Imagesets,JPEGValidation 4个文件夹,其中JPEGImages文件夹中包含7000张切片,Annotations文件夹中包含7000个标注文件,Imagesets文件夹包含训练集、测试集、近岸测试集、离岸测试集等划分方式文件,JPEGValidation文件夹包含2景未剪裁的大图及标注文件。

图10 RSDD-SAR数据集结构Fig.10 Structure of RSDD-SAR dataset

2.3 数据集分析

2.3.1 角度及长宽比分布

RSDD-SAR数据集中舰船目标角度分布图如图11(a)所示,图中横轴代表斜框角度所属区间,纵轴表示该区间范围的舰船数量,舰船目标长宽比分布图如图11(b)所示,图中横轴代表长宽比所属区间,纵轴表示该区间范围的舰船数量。通过分析该数据集舰船目标角度和长宽比分布,可得该数据集中舰船目标的角度较均匀地分布在—90°~90°,长宽比主要分布在1.5~7.5,说明该数据集具有旋转方向任意和长宽比大的特点。

图11 数据集舰船角度和长宽比分布图Fig.11 Angle and aspect ratio distribution maps of ships in RSDD-SAR dataset

2.3.2 尺寸分布

COCO数据集[20]依据目标面积将目标划分为小目标、中型目标和大目标,其中小目标检测是最具挑战性的任务,检测精度在3类目标中最低。表3依据COCO数据集划分标准统计了RSDD-SAR数据集舰船尺寸类型,其中小目标占比高达81.17%,中型目标占比18.78%。

由于COCO数据集为自然场景垂直边框标注数据集,而RSDD-SAR数据集为斜框标注数据集,且SAR图像中舰船目标面积普遍较小,导致COCO数据集的划分方式不适合RSDD-SAR数据集。因此,本文依据文献[13]划分标准统计了RSDD-SAR数据集舰船尺寸分布,结果如表4所示,其中小目标占比59.88%,中型目标占比40.04%。

从表3和表4可得,无论是依据COCO划分标准还是文献[13]划分标准,RSDD-SAR数据集小目标占比都较高。因此,该数据集具有小目标占比高的特点,可用于验证算法小目标检测性能。

表3 依据COCO划分标准RSDD-SAR舰船尺寸统计Tab.3 Area statistics of ships in RSDD-SAR according to COCO

表4 依据文献[13]划分标准RSDD-SAR舰船尺寸统计Tab.4 Area statistics of ships in RSDD-SAR according to Ref.[13]

2.3.3 典型场景示例

图12为RSDD-SAR数据集典型场景示例,包含图12(a)港口,图12(b)密集排列,图12(c)航道,图12(d)离岸低分辨率,图12(e)离岸高分辨率等典型场景,说明该数据集具有场景丰富的特点。

图12 RSDD-SAR数据集典型场景Fig.12 Typical scenarios in RSDD-SAR

综合上述分析,RSDD-SAR数据集具有旋转方向任意、长宽比大、小目标占比高和场景丰富的特点。

3 对比模型

依据阶段数和是否使用锚框,主流的目标检测算法可以分为基于锚框的两阶段检测算法、基于锚框的单阶段检测算法和无锚框检测算法。垂直边框检测算法中,两阶段检测算法以Faster R-CNN[21]为代表,单阶段检测算法以YOLO[22—24],SSD[25],RetinaNet[26]等为代表,无锚框检测算法以Center-Net[27],FCOS[28]等为代表。斜框检测算法通常基于垂直边框检测算法,通过添加斜框参数、改进模型结构等方式实现。为了充分验证不同类型算法在RSDD-SAR数据集上的性能,以提供广泛的性能基准,本文对几种常用的两阶段、单阶段和无锚框斜框检测算法进行了实验,对比模型包括光学遥感图像两阶段斜框检测算法R-Faster R-CNN,RoI Transformer[29],Gliding Vertex[30],Oriented R-CNN[31],ReDet[32],单阶段斜框检测算法R-RetinaNet,S2ANet[33],R3Det[34],无锚框斜框检测算法R-FCOS,CFA[35],以及SAR舰船单阶段斜框检测算法DRBox-V2[36]和无锚框斜框检测算法Polar Encodings[18]。

3.1 两阶段斜框检测算法

R-Faster R-CNN基于Faster R-CNN,通过添加角度参数实现斜框检测,该算法在第1阶段利用区域生成网络(Region Proposal Network,RPN)提取水平候选框,并通过感兴趣区域池化(Region of Intersect Pooling,RoI Pooling)将RPN提取的水平候选框池化至统一尺寸,第2阶段基于水平候选框回归斜框。RoI Transformer提出RRoI Leaner(Rotated RoI Learner)和RPS-RoI-Align (Rotated Position Sensitive RoI Align)改进Faster RCNN中的RPN,该算法第1阶段利用RRoI Leaner将RPN提取的水平候选框转化为旋转候选框,然后利用RPS-RoI-Align将旋转候选框统一尺寸,以提取旋转不变特征,第2阶段基于旋转不变特征回归斜框。不同于RoI Transformer对Faster R-CNN结构的改进,Gliding Vertex提出了更好的斜框定义方式,该算法在垂直边框的基础上,通过学习垂直边框4个角点的偏移量实现斜框检测。Oriented RCNN在RPN网络的基础上提出了中心点偏移法,通过添加2个角点偏移参数生成高质量的有向候选框。ReDet针对遥感图像中目标方向任意,导致需要更多参数、依赖旋转数据增强的问题,提出了旋转等变骨干网络(Rotation-equivariant Backbone)ReResNet和旋转不变感兴趣区域对齐方法(Rotation-invariant RoI Align,RiRoI Align),利用ReResNet提取旋转等变特征,并利用RiRoI Align实现空间和旋转方向对齐。

3.2 单阶段斜框检测算法

两阶段斜框检测算法取得了较高的检测精度,但是由于需要提取候选框,因此检测速度较慢。单阶段斜框检测算法则无需提取候选框,在检测精度相近的情况下,可以保持较快的检测速度。R-RetinaNet基于RetinaNet,通过在回归分支添加角度参数实现斜框检测,该算法无需RPN网络,通过在特征图中每个位置设置多个锚框直接预测目标斜框。针对单阶段斜框检测算法特征不对齐问题,S2ANet基于可变性卷积提出了用于斜框检测的特征对齐方法,并通过ARF (Active Rotating Filters)编码旋转信息,提取旋转敏感特征和旋转不变特征分别用于斜框回归与分类任务。针对多级单阶段检测算法特征不对齐问题,R3Det提出了特征精炼模块,通过特征差值获取精炼的锚框并重构特征图实现特征对齐。DRBox-V2以VGG-16为骨干网络,通过在Conv3_3层和Conv4_3层特征图生成具有角度的锚框,修改斜框定义方式以提高斜框预测的准确度,并引入Focal Loss,HNM,FPN等对DRBox改进。

3.3 无锚框斜框检测算法

由于SAR舰船目标具有旋转方向任意和长宽比大的特点,基于锚框的斜框检测算法预设的锚框尺寸通常与真实边框差别较大,导致算法计算复杂且速度较慢。无锚框斜框检测算法则无需预设锚框,直接基于特征图中的每个位置预测斜框参数,相较于基于锚框的检测算法,算法流程更加简洁,检测速度较快。R-FCOS基于FCOS,通过将垂直边框表示方法转换为斜框表示方法实现斜框检测,该算法利用真实边框中心点到斜框4条边的距离及角度参数表示斜框,将真实边框中所有点作为正样本直接预测斜框参数。针对遥感图像目标密集排列场景传统矩形框检测受限的问题,Guo等提出了凸包特征适应方法(Convex-hull Feature Adaptation,CFA),通过可变性卷积生成9个特征点,并利用Jarvis March算法生成最小凸包。针对斜框检测存在的边界不连续问题,Polar Encodings提出了Polar Encodings斜框编码方式,通过等角度间隔采样斜框边到中心点的距离作为斜框编码,摆脱了边界角度变化导致的损失不连续问题。

4 实验结果与分析

本节首先将第3节提到的斜框检测算法在RSDDSAR数据集上进行实验,对比分析不同算法性能,然后基于最优模型对RSDD-SAR数据集泛化能力进行了分析。

4.1 实验平台及评价指标

实验平台为Ubuntu20.04操作系统,CPU型号为Intel Core i7-8700,GPU型号为NVIDIA GTX 1080Ti。所有光学遥感图像斜框检测对比算法都基于JDet框架[37]和MMRotate框架[38],数据增强使用概率为0.5的水平随机翻转,优化器使用SGD[39],初始学习率设为0.0025,动量设为0.9,权重衰减设为0.0001,使用L2范数梯度裁剪,最大梯度范数设为35,迭代轮次设为12,第7个和第10个迭代轮次时学习率减少10倍,前500个批次使用线性预热学习率,初始预热学习率为初始学习率的1/3,ReDet模型使用ReResNet-50骨干网络,其余模型使用预训练的ResNet系列[40]骨干网络。其中ResNet-18作为骨干网络时批次大小设为8,ReResNet-50,Res-Net-50,ResNet-101作为骨干网络时批次大小设为4。SAR舰船斜框检测对比算法DRBox-V2和Polar Encodings迭代轮次设为12,实验环境和其余参数配置依据文献[36]和文献[18]配置。所有对比算法训练和测试图像尺寸统一设置为512×512,测试置信度阈值设为0.05。模型评价指标为模型参数量(Params)、每秒传输帧数(Frames Per Second,FPS)、近岸场景(Inshore)AP50、离岸场景(Offshore)AP50及所有场景AP50。其中AP50表示交并比(Intersection over Union,IoU)阈值为0.5时的平均准确率(Average Precision,AP),AP定义为

其中,Ntd为检测正确的目标数目,Nd为所有检测到的目标数目,Nr为真实目标数目,P为精准率(Precision),R为召回率(Recall),AP为P-R曲线下的面积。

4.2 不同算法实验结果与分析

不同算法的实验结果如表5所示,从精度指标来看,单阶段斜框检测算法S2ANet取得了最优检测精度;从速度指标来看,无锚框算法最快,单阶段算法次之,两阶段算法最慢,其中无锚框算法CFA在保持了较高的检测精度的前提下,检测速度最快;从模型参数量来看,同一模型检测精度随模型参数量的增加而提高,其中S2ANet-ResNet-101取得了最优的检测精度;SAR舰船斜框检测算法DRBox-V2和Polar Encodings检测精度较高,但距最优模型仍有一定差距;所有算法在近岸场景检测精度都远低于离岸场景检测精度,符合近岸场景干扰较多的实际情况,说明近岸场景舰船检测仍具有挑战性。

表5 不同算法实验结果Tab.5 Experimental results of different algorithms

图13为不同算法在RSDD-SAR典型场景的测试结果,其中,第1行为港口场景,第2行为密集排列场景,第3行为航道场景,第4行为离岸低分辨率场景,第5行为离岸高分辨率场景,从图中可得,不同算法在离岸高分辨率、离岸低分辨率、航道场景检测结果较好,但对小目标存在一定漏检,在近岸港口、密集排列场景存在较多漏检、误检。

图13 不同算法检测结果((a) 标注;(b) R-Faster R-CNN-ResNet-101检测结果;(c) RoI Transformer-ResNet-101检测结果;(d) Gliding Vertex-ResNet-101检测结果;(e) Oriented R-CNN-ResNet-101检测结果;(f) R-RetinaNet-ResNet-101检测结果;(g) S2ANet-ResNet-101检测结果;(h) R3Det-ResNet-101检测结果;(i) Redet-ReResNet-50检测结果;(j) DRBox-V2检测结果;(k) R-FCOS-ResNet-101检测结果;(l) CAF-ResNet-101检测结果;(m) Polar Encoding-ResNet-101检测结果)Fig.13 Detection results of different methods ((a) Annotations;(b) Detection results of R-Faster R-CNN-ResNet-101;(c) Detection results of RoI Transformer-ResNet-101;(d) Detection results of Gliding Vertex-ResNet-101;(e) Detection results of Oriented R-CNN-ResNet-101;(f) Detection results of R-RetinaNet-ResNet-101;(g) Detection results of S2ANet-ResNet-101;(h) Detection results of R3Det-ResNet-101;(i) Detection results of Redet-ReResNet-50;(j) Detection results of DRBox-V2;(k) Detection results of R-FCOS-ResNet-101;(l) Detection results of CAF-ResNet-101;(m) Detection results of Polar Encoding-ResNet-101)

4.3 数据集泛化能力测试与分析

为分析RSDD-SAR数据集训练模型的泛化能力,本文设置3组实验:(1)以SSDD数据集为测试集,分析RSDD-SAR数据集训练模型的泛化能力;(2)以HRSID数据集为测试集,对比分析RSDDSAR和SSDD数据集训练模型的泛化能力;(3)对比分析RSDD-SAR和SSDD数据集训练模型在未剪裁大图上的泛化能力。

4.3.1 基于SSDD数据集泛化能力测试与分析

为分析RSDD-SAR数据集训练模型的泛化能力,本文使用RSDD-SAR数据集训练得到的最优模型S2ANet-ResNet-101对SSDD数据集全部1160张切片进行了测试,AP50指标为60.87%,证明RSDDSAR数据集训练模型具有一定的泛化能力。图14展示了SSDD数据集检测结果,其中图14(a)为离岸场景正确检测结果,图14(b)为近岸场景正确检测结果,图14(c)为错误检测结果,第1行为真实结果(红色框),第2行为检测结果(绿色框),蓝色框表示漏检舰船目标,黄色框表示误检舰船目标。从图中可得,RSDD-SAR数据集训练模型可较准确地检测近岸和离岸场景不同分辨率的舰船目标,但由于不同数据集之间场景差异大,岸上干扰多,近岸场景存在较多的漏检和误检,离岸场景下对小尺寸目标有一定的漏检。

图14 SSDD数据集测试结果Fig.14 Testing results on SSDD

4.3.2 基于HRSID数据集泛化能力测试与对比分析

为进一步分析RSDD-SAR数据集训练模型的泛化能力,本文分别基于RSDD-SAR和SSDD数据集训练最优模型S2ANet,并以HRSID数据集作为测试集,对比分析RSDD-SAR和SSDD数据集训练模型的泛化能力。

由于SSDD数据量较少,为保证模型收敛,迭代轮次设置为80,训练和测试图像尺寸统一设为512×512,其余参数配置不变。S2ANet基于SSDD数据集训练的AP50曲线如图15(b)所示,模型在第75个迭代轮次左右收敛,其中,S2ANet-ResNet-50的AP50指标最高。S2ANet基于RSDD-SAR数据集训练的AP50曲线如图15(a)所示,模型在第8个迭代轮次左右收敛,其中,S2ANet-ResNet-101的AP50指标最高。从图中可得,由于SSDD数据量过少,导致模型收敛较慢,需要更多的训练轮次,且中型模型即可取得较高的检测精度,参数量过大时精度甚至出现负增长,而RSDD-SAR数据集由于数据量更大、场景更丰富,因此模型收敛速度较快,模型精度随参数量增长而提高,可对大模型提供更好的支持。

图15 S2ANet AP50曲线Fig.15 AP50 curves of S2ANet

由于HRSID为垂直边框检测和语义分割数据集,未提供斜框标注,本文通过生成最小包围矩形的方式将HRSID数据集的语义分割标注转换为斜框标注(可在以下网址下载:https://github.com/makabakasu/RSDD-SAR-OPEN/),以HRSID全部5604张切片作为测试数据,分辨率分别设为512×512和800×800进行测试,结果如表6所示。从表中可得,RSDD-SAR数据集训练模型泛化能力远高于SSDD数据集训练模型的泛化能力。

表6 泛化能力测试Tab.6 Generalization ability testing results

4.3.3 基于未剪裁大图泛化能力测试与对比分析

为测试算法在未剪裁大图上的性能,本文利用RSDD-SAR和SSDD数据集训练最优算法S2ANet-ResNet-101在RSDD-SAR数据集2景未剪裁大图上进行了测试,测试结果如表7所示,其中,RSDD-SAR数据集训练模型在未剪裁大图上的AP50远高于SSDD数据集训练模型。

表7 未剪裁大图测试结果Tab.7 Results on uncropped images

图16为高分3号未剪裁大图上的测试结果,其中图16(a)为高分3号未剪裁大图标注,图16(b)为RSDD-SAR数据集训练模型测试结果,图16(c)为SSDD数据集训练模型测试结果。从图中可得,RSDDSAR和SSDD数据集训练模型在离岸简单场景检测结果均较好,SSDD数据集训练模型在离岸岛屿场景存在较多误检,RSDD-SAR和SSDD数据集训练模型在近岸复杂场景均存在较多的漏检和误检。

图16 未剪裁大图测试Fig.16 Testing on uncropped images

通过在其他数据集和未剪裁大图上测试与分析数据集泛化能力可得:RSDD-SAR数据集训练模型较SSDD数据集训练模型具有更强的泛化能力,但由于场景、分辨率、获取方式等存在差异,测试精度较验证精度均大幅下降,说明SAR舰船斜框检测模型的泛化能力距实际应用仍有较大差距,是值得研究的课题。

5 结语

针对目前SAR舰船斜框检测数据较少,难以满足算法发展和实际应用需求的问题,本文公开了SAR舰船斜框检测数据集RSDD-SAR,该数据集包含7000张切片及2景未剪裁大图,具有旋转方向任意、长宽比大、小目标占比高和场景丰富的特点。同时,本文对几种常用的光学遥感图像斜框检测算法和SAR舰船斜框检测算法进行了对比实验,实验结果为RSDD-SAR数据集构建了性能基准,可供相关学者参考,其中单阶段算法S2ANet检测精度最高,无锚框算法CFA检测速度最快,但所有对比算法近岸场景性能均远低于离岸场景,说明近岸场景舰船斜框检测仍具挑战性。另外,本文在其他数据集和未剪裁大图上测试与分析了RSDD-SAR数据集训练模型的泛化能力,结果表明该数据集训练模型具有较好的泛化能力,但测试精度较验证精度仍有大幅下降,说明SAR船舶斜框检测算法泛化能力距实际应用仍有较大差距。

附录

SAR舰船斜框检测数据集(RSDD-SAR)依托《雷达学报》官方网站发布,现已上传至学报网站“数据”版块“SAR样本数据集”,网址为:https://radars.ac.cn/web/data/getData?dataType=SDD-SAR,如附图1所示。

附图 1 RSDD-SAR数据集发布地址App.Fig.1 Release address of RSDD-SAR dataset

附表1 RSDD-SAR数据集详细信息App.Tab.1 RSDD-SAR dataset information in detail

续表 1

续表 1

续表 1

RSDD-SAR数据集依托国家自然科学基金、中国科协青年人才托举工程基金(特殊领域)和山东省泰山学者人才工程支持,构建了一套包含多种成像模式、多种极化方式、多种分辨率的SAR舰船斜框检测数据集,旨在进一步推动SAR目标检测等先进技术的深入研究。该数据集所有权归海军航空大学所有,《雷达学报》编辑部具有编辑出版权。

猜你喜欢
舰船切片算法
支持向量机的舰船图像识别与分类技术
风浪干扰条件下舰船航向保持非线性控制系统
舰船测风传感器安装位置数值仿真
新局势下5G网络切片技术的强化思考
5G网络切片技术增强研究
Travellng thg World Full—time for Rree
网络切片标准分析与发展现状
浅析5G网络切片安全
学习算法的“三种境界”
算法框图的补全