精华内容
下载资源
问答
  • 遥感目标检测数据集

    2020-12-04 10:59:44
    数据集名称 图像数量 目标数量 卫星 SSDD/SSDD 1160 2456 - OpenSARShip 41 11346 Sentinel-1 AIR-SARShip-1.0 31 461 GF-3 SAR-Ship-Dataset 43819 43819 GF...

    在这里插入图片描述

    数据集名称 图像数量 目标数量 卫星
    SSDD/SSDD 1160 2456 -
    OpenSARShip 41 11346 Sentinel-1
    AIR-SARShip-1.0 31 461 GF-3
    SAR-Ship-Dataset 43819 43819 GF-3、Sentinel-1
    HRSID 5604 16951 -

     

    文章目录

     

    1. 光学数据集

    1.1 DIOR

    在这里插入图片描述

    “DIOR”是一个用于光学遥感图像目标检测的大规模基准数据集。数据集包含23463个图像和192472个实例,涵盖20个对象类。这20个对象类是飞机、机场、棒球场、篮球场、桥梁、烟囱、水坝、高速公路服务区、高速公路收费站、港口、高尔夫球场、地面田径场、天桥、船舶、体育场、储罐、网球场、火车站、车辆和风磨。

    下载地址:http://www.escience.cn/people/gongcheng/DIOR.html
    数据论文地址:Object Detection in Optical Remote Sensing Images: A Survey and A New Benchmark

    1.2 LEVIR

    在这里插入图片描述

    LEVIR数据集由大量 800 × 600 像素和0.2m〜1.0m /像素的高分辨率Google Earth图像和超过22k的图像组成。LEVIR数据集涵盖了人类居住环境的大多数类型地面特征,例如城市,乡村,山区和海洋。数据集中未考虑冰川,沙漠和戈壁等极端陆地环境。数据集中有3种目标类型:飞机,轮船(包括近海轮船和向海轮船)和油罐。所有图像总共标记了11k个独立边界框,包括4,724架飞机,3,025艘船和3,279个油罐。每个图像的平均目标数量为0.5。
    数据下载地址:http://levir.buaa.edu.cn/Code.htm
    数据论文地址:Random Access Memories: A New Paradigm for Target Detection in High Resolution Aerial Remote Sensing Images

    1.3 DOTA

    在这里插入图片描述

    DOTA是用于航空图像中目标检测的大规模数据集。它可以用于开发和评估航空影像中的物体检测。对于DOTA数据集,它包含来自不同传感器和平台的2806个航拍图像。每个图像的大小在大约800×800到4000×4000像素的范围内,并且包含各种比例,方向和形状的对象。这些DOTA图像由航空影像解释专家分类为15个常见对象类别。完全注释的DOTA图像包含188、282个实例,每个实例都由任意(8自由度)四边形标记。
    https://captain-whu.github.io/DOTA/index.html
    DOTA: A Large-scale Dataset for Object Detection in Aerial Images

    1.4 RSOD

    在这里插入图片描述

    RSOD是一个开放的目标检测数据集,用于遥感图像中的目标检测。数据集包含飞机,油箱,运动场和立交桥,以PASCAL VOC数据集的格式进行标注。
    数据集包括4个文件夹,每个文件夹包含一种对象:
    1.飞机数据集,446幅图像中的4993架飞机
    2.操场,189副图像中的191个操场。
    3.立交桥,176副图像中的180座立交桥。
    4.油箱,165副图像中的1586个 油箱。

    下载地址:https://github.com/RSIA-LIESMARS-WHU/RSOD-Dataset-
    数据论文地址:Object Detection in Optical Remote Sensing Images: A Survey and A New Benchmark

    1.5 NWPU VHR-10

    在这里插入图片描述

    NWPU VHR-10数据集是仅用于研究的公开提供的10类地理空间物体检测数据集,这十类物体是飞机,轮船,储罐,棒球,网球场,篮球场,地面跑道,港口,桥梁和车辆。此数据集总共包含800幅超高分辨率(VHR)遥感图像,是从Google Earth和Vaihingen数据集裁剪而来的,然后由专家手动注释。
    下载地址:https://pan.baidu.com/s/1hqwzXeG#list/path=%2F
    参考文献:Learning Rotation-Invariant Convolutional Neural Networks for Object Detection in VHR Optical Remote Sensing Images

    1.6 VEDAI

    在这里插入图片描述

    VEDAI是航空影像中车辆检测的数据集,作为一种在不受限制的环境中对目标检测算法进行基准测试的工具。数据库中除了包含很小的车辆以外,还表现出不同的可变性,例如多个方向,光照/阴影变化,镜面反射或遮挡。此外,每个图像都有几个光谱带和分辨率。作者还给出了精确的实验方案,以确保可以正确复现和比较不同人获得的实验结果。对于这些算法的不同设置,作者还给出了一些基准以测试该数据集上的性能,以提供基准比较。
    下载地址:https://downloads.greyc.fr/vedai/
    参考文献:Vehicle Detection in Aerial Imagery : A small target detection benchmark

    1.7 COWC

    在这里插入图片描述

    带上下文信息的高架汽车(COWC)数据是头顶视角的带注释的汽车。对于训练、深度神经网络以学习目标检测检测或汽车计数很有用。数据集具有以下属性:
    (1)地面上每像素分辨率15 cm的数据(所有数据均为EO)。
    (2)来自六个不同位置的数据:加拿大多伦多,新西兰塞尔温,波茨坦和德国Vaihingen,哥伦布和犹他州美国。
    (3)32,716辆带注释的汽车。58,247个负面例子。
    (4)为检测和计数任务建立基准。
    (5)能够验证额外测试场景。
    下载地址:https://gdo152.llnl.gov/cowc/

    参考文献:A Large Contextual Dataset for Classification, Detection and Counting of Cars with Deep Learning

    1.8 ITCVD

    在这里插入图片描述

    ITCVD数据集图像是从飞机平台拍摄的,图像拍摄由飞机在荷兰Enschede上方空高约330m的高度飞行,以天底视图和斜视图拍摄图像。斜视角的倾斜角度为45度。天底图像的地面采样距离(GSD)为10厘米。

    数据集包含用于训练的135张图像和用于测试的23543张图像,其余的38张图像和5545辆车辆用于测试。数据集中的每辆车都使用一个边界框手动标注,该边界框表示为(x,y,w,h),其中(x,y)是该框左上角的坐标,而(w,h )分别是边界框的宽度和高度。
    下载地址:
    https://eostore.itc.utwente.nl:5001/fsdownload/zZYfgbB2X/ITCVD
    参考文献:Vehicle Detection in Aerial Images

    1.9 DIUx xView 2018

    在这里插入图片描述

    在这里插入图片描述

    xView是最大的公开可用的开销图像集之一。它包含来自世界各地复杂场景的图像,并用超过一百万个边界框进行注释,这些边界框代表60种对象类别的不同范围。与其他架空图像数据集相比,xView图像具有高分辨率,多光谱特性,并带有更多种类的对象标记。DIUx xView挑战赛的重点是加快四个计算机视觉领域的进展:降低检测的最小分辨率;提高学习效率;启用更多对象类的发现;改进对细粒度类的检测。DIUx xView挑战紧随挑战的脚步,例如上下文中的通用对象(COCO),并试图建立SpaceNet和世界功能图(FMoW),以将计算机视觉应用于来自太空可用图像,以便我们以新的方式理解视觉世界并解决一系列重要的问题。
    下载地址:http://xviewdataset.org/ 
    参考文献:xView: Objects in Context in Overhead Imagery

    1.10 HRSC2016

    在这里插入图片描述

    数据集所有图像均来自六个著名的港口。图像分辨率在2-m和0.4-m之间。图像尺寸范围从300到1500,大多数图像大于1000 x 600。 训练,验证和测试集分别包含436个图像(包括1207个样本),181个图像(包括541个样本)和444个图像(包括1228个样本)。

    下载地址:http://www.escience.cn/people/liuzikun/DataSet.html
    参考文献:A_High_Resolution_Optical_Satellite_Image_Dataset_for_Ship_Recognition_and_Some_New_Baselines

    1.11 TAS

    TAS数据集(Heitz and Koller, 2008)是为航空图像中的汽车检测而设计的。它包含了30张图片和1319辆手动标注的汽车。这些图像的空间分辨率相对较低,由建筑物和树木造成的阴影较多。

    1.12 SZTAKI‐INRIA

    SZTAKI INRIA: SZTAKI INRIA数据集(Benedek et al., 2011)用于基准测试各种建筑8检测方法。它由665个建筑组成,用定向边界框手工标注,分布在来自曼彻斯特(英国)、Szada和布达佩斯(匈牙利)、Cot d Azur和诺曼底(法国)和Bodensee(德国)的9幅遥感图像中。所有的图像只包含红色®、绿色(G)和蓝色(B)三个通道。其中,两幅图像(Szada和Budapest)是航空图像,其余七幅图像是来自QuickBird、IKONOS和谷歌Earth的卫星图像。

    1.13 UCAS AOD

    UCAS AOD数据集(Zhu et al., 2015a)用于飞机和车辆检测。具体来说,飞机数据集包括600张图像和3210架飞机,而车辆数据集包括310张图像和2819辆车辆。所有的图像都经过精心挑选,使数据集中的物体方向分布均匀。
    下载地址:https://pan.baidu.com/s/1bplTvif密码:ppef

    1.14 DLR 3K Vehicle

    在这里插入图片描述

    DLR 3K车辆:DLR 3K车辆数据集(Liu and Mattyus, 2015)是另一个设计用于车辆检测的数据集。它包含20张5616 3744航拍图像,空间分辨率为13厘米。它们是在距地面1000米的高空使用DLR 3K摄像机系统(一种近乎实时的机载数字监控系统)在德国慕尼黑地区拍摄的。有14235辆车是通过在图片中使用定向包围框手动标记的。

    1.15 HRRSD

    在这里插入图片描述
    HRRSD 数据集是2019年中国科学院大学发布的数据集,HRRSD包含从Google Earth和Baidu地图获取的21761幅图像,空间分辨率从0.15-m到1.2-m。HRRSD中有55740个目标的实例,每个类别4k左右。HRRSD包含13类目标。13个类别分别是:飞机、棒球场、篮球场、桥梁、十字路口、田径场、港口、停车场、船、存储罐、丁字路口、网球场、汽车。
    数据库的亮点是,各个类别之间样本量较均衡,每个类别都有大约4000个样本。
    下载链接:https://github.com/CrazyStoneonRoad/TGRS-HRRSD-Dataset

    2. SAR

    2.1 SSDD

    在这里插入图片描述
    在数据集SSDD中,一共有1160个图像和2456个舰船,平均每个图像有2.12个舰船,数据集后续会继续扩充。相比于具有20类目标的PASCAL VOC数据集,SSDD虽然图片少,但是类别只有舰船这一种,因此它足以训练检测模型。
    下载链接:https://pan.baidu.com/s/1sVs63jB_aM-RbcHEaWQgTg 
    提取码:4pz1

    2.2 SSDD+

    在这里插入图片描述
    SSDD+的数据集相对于SSDD数据将垂直边框变成了旋转边框,旋转边框可在完成检测任务的同时实现了对目标的方向估计。

    2.3 OpenSARShip

    在这里插入图片描述

    OpenSAR是由上海交通大学高级传感技术中心(AST)开发的开放式SAR图像管理和处理平台,用于SAR图像的读取,处理,可视化和算法测试。SAR图像管理和算法测试是OpenSAR的主要任务。
    OpenSAR支持导入各种SAR数据源,例如TerraSAR-X,RADARSAT 1/2,COSMO-SkyMed等。用户可以通过该平台搜索和查看SAR图像数据。OpenSAR支持注册各种算法,例如图像去噪,场景分类,目标检测,目标识别,变化检测等。用户可以通过该平台搜索,配置和执行这些算法,并且完整的测试报告也将提供给用户。
    下载地址:http://opensar.sjtu.edu.cn/
    参考文献:
    Huang L, Liu B, Li B, et al. OpenSARShip: A Dataset Dedicated toSentinel-1 Ship Interpretation[J]. IEEE Journal of Selected Topics in AppliedEarth Observations and Remote Sensing, 2017.

    2.4 AIR-SARShip-1.0

    在这里插入图片描述

    高分辨率SAR舰船检测数据集-1.0(AIR-SARShip-1.0)首批发布31幅图像,图像分辨率包括1m和3m,成像模式包括聚束式和条带式,极化方式为单极化,场景类型包含港口、岛礁、不同等级海况的海面,目标覆盖运输船、油船、渔船等十余类近千艘舰船。 图像尺寸约为3000×3000像素,图像格式为Tiff、单通道、8/16位图像深度,标注文件提供相应图像的长宽尺寸、标注目标的类别以及标注矩形框的位置。
    下载地址:AIR-SARShip-1.0:高分辨率SAR舰船检测数据集
    参考文献:http://radars.ie.ac.cn/article/doi/10.12000/JR19097?viewType=HTML

    2.5 SAR-Ship-Dataset

    在这里插入图片描述
    该数据集以我国国产高分三号SAR数据和Sentinel-1 SAR数据为主数据源,共采用了102景高分三号和108景Sentinel-1 SAR图像构建高分辨率SAR船舶目标深度学习样本库。目前,该深度学习样本库包含43819船舶切片。高分三号的成像模式是Strip-Map (UFS)、Fine Strip-Map 1 (FSI)、Full Polarization 1 (QPSI)、Full Polarization 2(QPSII)和Fine Strip-Map 2 (FSII)。这5种成像模型的分辨率分别是3m、5m、8m、25m和10m。Sentinel-1的成像模式是条带模式(S3和S6)和宽幅成像模式。
    下载链接:https://github.com/CAESAR-Radi/SAR-Ship-Dataset
    参考文献:A SAR Dataset of Ship Detection for Deep Learningunder Complex Backgrounds

    2.7 HRSID

    在这里插入图片描述

    该数据集是电子科技大学的苏浩在2020年1月发布数据集,HRSID是高分辨率sar图像中用于船舶检测、语义分割和实例分割任务的数据集。该数据集共包含5604张高分辨率SAR图像和16951个ship实例。ISSID数据集借鉴了Microsoft Common Objects in Context (COCO)数据集的构建过程,包括不同分辨率的SAR图像、极化、海况、海域和沿海港口。该数据集是研究人员评估其方法的基准。对于HRSID, SAR图像的分辨率分别为:0.5m, 1 m, 3 m。
    下载链接:https://github.com/chaozhong2010/HRSID

    2.8 MSTAR

    在这里插入图片描述
    MSTAR数据库作为SAR图像自动目标识别(SAR ATR)研究的一个通用库,被很多学者广泛采用。从现有的SAR ATR系统处理流程来看,目标检测作为该系统的前端,很大程度上影响系统后续识别性能,在较好的检测性能下获得的目标区域可以直接进行分类识别,避免了鉴别阶段进一步减少虚警目标。目标识别作为该系统的后端处理部分,是整个系统的重点也是难点。

    参考链接

    数据分享01期|遥感目标检测数据集

    展开全文
  • 遥感目标检测数据集汇总

    千次阅读 2020-09-05 21:11:54
    遥感目标检测数据集汇总 数据集...

    遥感目标检测数据集汇总

    在这里插入图片描述

    数据集名称 图像数量 目标数量 卫星
    SSDD/SSDD 1160 2456 -
    OpenSARShip 41 11346 Sentinel-1
    AIR-SARShip-1.0 31 461 GF-3
    SAR-Ship-Dataset 43819 43819 GF-3、Sentinel-1
    HRSID 5604 16951 -

    1. 光学数据集

    1.1 DIOR

    在这里插入图片描述

    “DIOR”是一个用于光学遥感图像目标检测的大规模基准数据集。数据集包含23463个图像和192472个实例,涵盖20个对象类。这20个对象类是飞机、机场、棒球场、篮球场、桥梁、烟囱、水坝、高速公路服务区、高速公路收费站、港口、高尔夫球场、地面田径场、天桥、船舶、体育场、储罐、网球场、火车站、车辆和风磨。

    下载地址:http://www.escience.cn/people/gongcheng/DIOR.html
    数据论文地址:Object Detection in Optical Remote Sensing Images: A Survey and A New Benchmark

    1.2 LEVIR

    在这里插入图片描述

    LEVIR数据集由大量 800 × 600 像素和0.2m〜1.0m /像素的高分辨率Google Earth图像和超过22k的图像组成。LEVIR数据集涵盖了人类居住环境的大多数类型地面特征,例如城市,乡村,山区和海洋。数据集中未考虑冰川,沙漠和戈壁等极端陆地环境。数据集中有3种目标类型:飞机,轮船(包括近海轮船和向海轮船)和油罐。所有图像总共标记了11k个独立边界框,包括4,724架飞机,3,025艘船和3,279个油罐。每个图像的平均目标数量为0.5。
    数据下载地址:http://levir.buaa.edu.cn/Code.htm
    数据论文地址:Random Access Memories: A New Paradigm for Target Detection in High Resolution Aerial Remote Sensing Images

    1.3 DOTA

    在这里插入图片描述

    DOTA是用于航空图像中目标检测的大规模数据集。它可以用于开发和评估航空影像中的物体检测。对于DOTA数据集,它包含来自不同传感器和平台的2806个航拍图像。每个图像的大小在大约800×800到4000×4000像素的范围内,并且包含各种比例,方向和形状的对象。这些DOTA图像由航空影像解释专家分类为15个常见对象类别。完全注释的DOTA图像包含188、282个实例,每个实例都由任意(8自由度)四边形标记。
    https://captain-whu.github.io/DOTA/index.html
    DOTA: A Large-scale Dataset for Object Detection in Aerial Images

    1.4 RSOD

    在这里插入图片描述

    RSOD是一个开放的目标检测数据集,用于遥感图像中的目标检测。数据集包含飞机,油箱,运动场和立交桥,以PASCAL VOC数据集的格式进行标注。
    数据集包括4个文件夹,每个文件夹包含一种对象:
    1.飞机数据集,446幅图像中的4993架飞机
    2.操场,189副图像中的191个操场。
    3.立交桥,176副图像中的180座立交桥。
    4.油箱,165副图像中的1586个 油箱。

    下载地址:https://github.com/RSIA-LIESMARS-WHU/RSOD-Dataset-
    数据论文地址:Object Detection in Optical Remote Sensing Images: A Survey and A New Benchmark

    1.5 NWPU VHR-10

    在这里插入图片描述

    NWPU VHR-10数据集是仅用于研究的公开提供的10类地理空间物体检测数据集,这十类物体是飞机,轮船,储罐,棒球,网球场,篮球场,地面跑道,港口,桥梁和车辆。此数据集总共包含800幅超高分辨率(VHR)遥感图像,是从Google Earth和Vaihingen数据集裁剪而来的,然后由专家手动注释。
    下载地址:https://pan.baidu.com/s/1hqwzXeG#list/path=%2F
    参考文献:Learning Rotation-Invariant Convolutional Neural Networks for Object Detection in VHR Optical Remote Sensing Images

    1.6 VEDAI

    在这里插入图片描述

    VEDAI是航空影像中车辆检测的数据集,作为一种在不受限制的环境中对目标检测算法进行基准测试的工具。数据库中除了包含很小的车辆以外,还表现出不同的可变性,例如多个方向,光照/阴影变化,镜面反射或遮挡。此外,每个图像都有几个光谱带和分辨率。作者还给出了精确的实验方案,以确保可以正确复现和比较不同人获得的实验结果。对于这些算法的不同设置,作者还给出了一些基准以测试该数据集上的性能,以提供基准比较。
    下载地址:https://downloads.greyc.fr/vedai/
    参考文献:Vehicle Detection in Aerial Imagery : A small target detection benchmark

    1.7 COWC

    在这里插入图片描述

    带上下文信息的高架汽车(COWC)数据是头顶视角的带注释的汽车。对于训练、深度神经网络以学习目标检测检测或汽车计数很有用。数据集具有以下属性:
    (1)地面上每像素分辨率15 cm的数据(所有数据均为EO)。
    (2)来自六个不同位置的数据:加拿大多伦多,新西兰塞尔温,波茨坦和德国Vaihingen,哥伦布和犹他州美国。
    (3)32,716辆带注释的汽车。58,247个负面例子。
    (4)为检测和计数任务建立基准。
    (5)能够验证额外测试场景。
    下载地址:https://gdo152.llnl.gov/cowc/

    参考文献:A Large Contextual Dataset for Classification, Detection and Counting of Cars with Deep Learning

    1.8 ITCVD

    在这里插入图片描述

    ITCVD数据集图像是从飞机平台拍摄的,图像拍摄由飞机在荷兰Enschede上方空高约330m的高度飞行,以天底视图和斜视图拍摄图像。斜视角的倾斜角度为45度。天底图像的地面采样距离(GSD)为10厘米。

    数据集包含用于训练的135张图像和用于测试的23543张图像,其余的38张图像和5545辆车辆用于测试。数据集中的每辆车都使用一个边界框手动标注,该边界框表示为(x,y,w,h),其中(x,y)是该框左上角的坐标,而(w,h )分别是边界框的宽度和高度。
    下载地址:
    https://eostore.itc.utwente.nl:5001/fsdownload/zZYfgbB2X/ITCVD
    参考文献:Vehicle Detection in Aerial Images

    1.9 DIUx xView 2018

    在这里插入图片描述

    在这里插入图片描述

    xView是最大的公开可用的开销图像集之一。它包含来自世界各地复杂场景的图像,并用超过一百万个边界框进行注释,这些边界框代表60种对象类别的不同范围。与其他架空图像数据集相比,xView图像具有高分辨率,多光谱特性,并带有更多种类的对象标记。DIUx xView挑战赛的重点是加快四个计算机视觉领域的进展:降低检测的最小分辨率;提高学习效率;启用更多对象类的发现;改进对细粒度类的检测。DIUx xView挑战紧随挑战的脚步,例如上下文中的通用对象(COCO),并试图建立SpaceNet和世界功能图(FMoW),以将计算机视觉应用于来自太空可用图像,以便我们以新的方式理解视觉世界并解决一系列重要的问题。
    下载地址:http://xviewdataset.org/
    参考文献:xView: Objects in Context in Overhead Imagery

    1.10 HRSC2016

    在这里插入图片描述

    数据集所有图像均来自六个著名的港口。图像分辨率在2-m和0.4-m之间。图像尺寸范围从300到1500,大多数图像大于1000 x 600。 训练,验证和测试集分别包含436个图像(包括1207个样本),181个图像(包括541个样本)和444个图像(包括1228个样本)。

    下载地址:http://www.escience.cn/people/liuzikun/DataSet.html
    参考文献:A_High_Resolution_Optical_Satellite_Image_Dataset_for_Ship_Recognition_and_Some_New_Baselines

    1.11 TAS

    TAS数据集(Heitz and Koller, 2008)是为航空图像中的汽车检测而设计的。它包含了30张图片和1319辆手动标注的汽车。这些图像的空间分辨率相对较低,由建筑物和树木造成的阴影较多。

    1.12 SZTAKI‐INRIA

    SZTAKI INRIA: SZTAKI INRIA数据集(Benedek et al., 2011)用于基准测试各种建筑8检测方法。它由665个建筑组成,用定向边界框手工标注,分布在来自曼彻斯特(英国)、Szada和布达佩斯(匈牙利)、Cot d Azur和诺曼底(法国)和Bodensee(德国)的9幅遥感图像中。所有的图像只包含红色®、绿色(G)和蓝色(B)三个通道。其中,两幅图像(Szada和Budapest)是航空图像,其余七幅图像是来自QuickBird、IKONOS和谷歌Earth的卫星图像。

    1.13 UCAS AOD

    UCAS AOD数据集(Zhu et al., 2015a)用于飞机和车辆检测。具体来说,飞机数据集包括600张图像和3210架飞机,而车辆数据集包括310张图像和2819辆车辆。所有的图像都经过精心挑选,使数据集中的物体方向分布均匀。
    下载地址:https://pan.baidu.com/s/1bplTvif密码:ppef

    1.14 DLR 3K Vehicle

    在这里插入图片描述

    DLR 3K车辆:DLR 3K车辆数据集(Liu and Mattyus, 2015)是另一个设计用于车辆检测的数据集。它包含20张5616 3744航拍图像,空间分辨率为13厘米。它们是在距地面1000米的高空使用DLR 3K摄像机系统(一种近乎实时的机载数字监控系统)在德国慕尼黑地区拍摄的。有14235辆车是通过在图片中使用定向包围框手动标记的。

    2. SAR

    2.1 SSDD

    在这里插入图片描述
    在数据集SSDD中,一共有1160个图像和2456个舰船,平均每个图像有2.12个舰船,数据集后续会继续扩充。相比于具有20类目标的PASCAL VOC数据集,SSDD虽然图片少,但是类别只有舰船这一种,因此它足以训练检测模型。
    下载链接:https://pan.baidu.com/s/1sVs63jB_aM-RbcHEaWQgTg
    提取码:4pz1

    2.2 SSDD+

    在这里插入图片描述
    SSDD+的数据集相对于SSDD数据将垂直边框变成了旋转边框,旋转边框可在完成检测任务的同时实现了对目标的方向估计。

    2.3 OpenSARShip

    在这里插入图片描述

    OpenSAR是由上海交通大学高级传感技术中心(AST)开发的开放式SAR图像管理和处理平台,用于SAR图像的读取,处理,可视化和算法测试。SAR图像管理和算法测试是OpenSAR的主要任务。
    OpenSAR支持导入各种SAR数据源,例如TerraSAR-X,RADARSAT 1/2,COSMO-SkyMed等。用户可以通过该平台搜索和查看SAR图像数据。OpenSAR支持注册各种算法,例如图像去噪,场景分类,目标检测,目标识别,变化检测等。用户可以通过该平台搜索,配置和执行这些算法,并且完整的测试报告也将提供给用户。
    下载地址:http://opensar.sjtu.edu.cn/
    参考文献:
    Huang L, Liu B, Li B, et al. OpenSARShip: A Dataset Dedicated toSentinel-1 Ship Interpretation[J]. IEEE Journal of Selected Topics in AppliedEarth Observations and Remote Sensing, 2017.

    2.4 AIR-SARShip-1.0

    在这里插入图片描述

    高分辨率SAR舰船检测数据集-1.0(AIR-SARShip-1.0)首批发布31幅图像,图像分辨率包括1m和3m,成像模式包括聚束式和条带式,极化方式为单极化,场景类型包含港口、岛礁、不同等级海况的海面,目标覆盖运输船、油船、渔船等十余类近千艘舰船。 图像尺寸约为3000×3000像素,图像格式为Tiff、单通道、8/16位图像深度,标注文件提供相应图像的长宽尺寸、标注目标的类别以及标注矩形框的位置。
    下载地址:AIR-SARShip-1.0:高分辨率SAR舰船检测数据集
    参考文献:http://radars.ie.ac.cn/article/doi/10.12000/JR19097?viewType=HTML

    2.5 SAR-Ship-Dataset

    在这里插入图片描述
    该数据集以我国国产高分三号SAR数据和Sentinel-1 SAR数据为主数据源,共采用了102景高分三号和108景Sentinel-1 SAR图像构建高分辨率SAR船舶目标深度学习样本库。目前,该深度学习样本库包含43819船舶切片。高分三号的成像模式是Strip-Map (UFS)、Fine Strip-Map 1 (FSI)、Full Polarization 1 (QPSI)、Full Polarization 2(QPSII)和Fine Strip-Map 2 (FSII)。这5种成像模型的分辨率分别是3m、5m、8m、25m和10m。Sentinel-1的成像模式是条带模式(S3和S6)和宽幅成像模式。
    下载链接:https://github.com/CAESAR-Radi/SAR-Ship-Dataset
    参考文献:A SAR Dataset of Ship Detection for Deep Learningunder Complex Backgrounds

    2.7 HRSID

    在这里插入图片描述

    该数据集是电子科技大学的苏浩在2020年1月发布数据集,HRSID是高分辨率sar图像中用于船舶检测、语义分割和实例分割任务的数据集。该数据集共包含5604张高分辨率SAR图像和16951个ship实例。ISSID数据集借鉴了Microsoft Common Objects in Context (COCO)数据集的构建过程,包括不同分辨率的SAR图像、极化、海况、海域和沿海港口。该数据集是研究人员评估其方法的基准。对于HRSID, SAR图像的分辨率分别为:0.5m, 1 m, 3 m。
    下载链接:https://github.com/chaozhong2010/HRSID

    2.8 MSTAR

    在这里插入图片描述
    MSTAR数据库作为SAR图像自动目标识别(SAR ATR)研究的一个通用库,被很多学者广泛采用。从现有的SAR ATR系统处理流程来看,目标检测作为该系统的前端,很大程度上影响系统后续识别性能,在较好的检测性能下获得的目标区域可以直接进行分类识别,避免了鉴别阶段进一步减少虚警目标。目标识别作为该系统的后端处理部分,是整个系统的重点也是难点。

    参考链接

    数据分享01期|遥感目标检测数据集

    展开全文
  • AIR-SARShip-1.0遥感目标检测数据集图像裁剪 数据介绍 高分辨率SAR舰船检测数据集-1.0(AIR-SARShip-1.0)首批发布31幅图像,图像分辨率包括1m和3m,成像模式包括聚束式和条带式,极化方式为单极化,场景类型包含...

    AIR-SARShip-1.0遥感目标检测数据集图像裁剪

    数据介绍

    高分辨率SAR舰船检测数据集-1.0(AIR-SARShip-1.0)首批发布31幅图像,图像分辨率包括1m和3m,成像模式包括聚束式和条带式,极化方式为单极化,场景类型包含港口、岛礁、不同等级海况的海面,目标覆盖运输船、油船、渔船等十余类近千艘舰船。

    图像尺寸约为3000×3000像素,图像格式为Tiff、单通道、8/16位图像深度,标注文件提供相应图像的长宽尺寸、标注目标的类别以及标注矩形框的位置。完整介绍以及数据下载途径详见雷达学报的这个连接

    因为图像比较大,因此我们需要对1.0版本的图像进行裁剪,这里的AIR-SARShip-1.0数据集是PASCAL VOC标注格式,图像本身是16位深度,裁剪后也保留这两点,裁剪的代码稍加改动也适用于其他标注类型为矩形框的检测数据集。
    在这里插入图片描述

    裁剪工作准备

    • 准备数据:
      下载数据集,将其解压之后按照标注文件(扩展名为.xml)和图像分别整理到annotations和images两个文件里,把这两个文件夹放在一个目录下;
    • 准备所需依赖包;
      opencv,numpy,matplotlab,lxml
    • 明确你都要把数据存在哪个文件夹里,确保这个文件夹存在;
    • 新建一个.py文件,检查没啥问题之后就可以直接用代码了。

    代码及注释

    这里先说明一下,代码是python写的,代码里有一部分是裁剪图像的可视化,设计这个是为了方便自己检查是否裁剪对了,如果你的数据集量比较大,那检查一次之后还是把这部分注释掉吧,一张一张多麻烦啊;
    另外,关于裁剪的路径和参数设置,都在函数外面的代码的最下面写着,过滤零像素过多的图像的阈值在相关函数里面写着,按照需求自己改改吼~

    import os
    import cv2
    import xml.etree.ElementTree as ET
    from lxml import etree, objectify
    import numpy as np
    import matplotlib.pyplot as plt
    
    
    def _bbox_area_computer(bbox):
        width = bbox[1] - bbox[0]
        height = bbox[3] - bbox[2]
        return width * height
    
    
    def read_annotation_xml(xml_file):
        tree = ET.parse(xml_file)
    
        imageid = int((tree.find('filename').text).replace('.tiff', ''))
    
        size = tree.find('size')
        width = int(size.find('width').tail)
        height = int(size.find('height').tail)
        image_size = [width, height]
    
        resolution = tree.find('resolution').text
        sensor = tree.find('sensor').text
        source_info = [resolution, sensor]
        objs = tree.findall('object')
    
        small_object = 0
        middle_object = 0
        large_object = 0
    
        bboxes = []
    
        for obj in objs:
            bndbox = obj.find('bndbox')
            [xmin, xmax, ymin, ymax] = [
                int(bndbox.find('xmin').text),
                int(bndbox.find('xmax').text),
                int(bndbox.find('ymin').text),
                int(bndbox.find('ymax').text)
            ]
            if xmin < 0:
                xmin = 0
            if ymin < 0:
                ymin = 0
            bbox = [xmin, xmax, ymin, ymax]
            bboxes.append(bbox)
    
            area_of_bbox = _bbox_area_computer(bbox)
    
            if area_of_bbox <= 32 * 32:
                small_object += 1
            elif area_of_bbox <= 64 * 64:
                middle_object += 1
            else:
                large_object += 1
    
        print(' Number of small objects:{0}'.format(small_object))
        print(' Number of middle objects:{0}'.format(middle_object))
        print(' Number of large objects:{0}'.format(large_object))
        return imageid, image_size, source_info, bboxes
    
    
    def two_points_belong_to_the_orignial_bbox_area(bbox, temp_bbox):
        if (temp_bbox[0] - bbox[0]) * (temp_bbox[0] - bbox[1]) <= 0 and (temp_bbox[2] - bbox[2]) * (
                temp_bbox[2] - bbox[3]) <= 0 and (temp_bbox[1] - bbox[0]) * (temp_bbox[1] - bbox[1]) <= 0 and (
                temp_bbox[3] - bbox[2]) * (temp_bbox[3] - bbox[3]) <= 0:
            return True
        else:
            return False
    
    def do_filter_to_inappropriate_data(subImage, threshold=16384): #if there are too many zero pixel in the image then return True, you can adjust the threshold to what you want
        zero_pixel_num = (subImage.reshape(-1,1)[:,0]==0).sum()
        if zero_pixel_num >= threshold:
            return True
    
    
    def add_gt(img_data, bboxes):
        colors = (0, 0, 255)
        for bbox in bboxes:
            cv2.rectangle(img_data, (bbox[0], bbox[2]), (bbox[1], bbox[3]), colors, 5)
        return img_data
    
    
    def tiff_image_visualization(img_data):
        img_data = 255 * (np.log2(img_data + 1) / 16)
        img_data = img_data.astype(np.uint8)
        return img_data
    
    def save_to_xml(xml_path, Image_shape, source_info, sub_bboxes, img_name):
        E = objectify.ElementMaker(annotate=False)
        anno_tree = E.annotation(
            E.folder('AIR-SARShip-1.0-SUB'),
            E.filename(img_name),
            E.source(
                E.database('AIRSAR'),
                E.resolution(source_info[0]),
                E.sensor(source_info[1]),
            ),
            E.size(
                E.width(Image_shape[1]),
                E.height(Image_shape[0]),
                E.depth(Image_shape[2])
            ),
            E.segmented(0),
        )
    
        for bbox in sub_bboxes:
            E2 = objectify.ElementMaker(annotate=False)
            anno_tree2 = E2.object(
                E.name('ship'),
                E.bndbox(
                    E.xmin(bbox[0]),
                    E.ymin(bbox[2]),
                    E.xmax(bbox[1]),
                    E.ymax(bbox[3])
                ),
                E.difficult(0)
                )
            anno_tree.append(anno_tree2)
    
        etree.ElementTree(anno_tree).write(xml_path, pretty_print=True)
    
    
    def crop_single_image(img_filename, width, height, bboxes,overlap_size_of_width,overlap_size_of_height,aimed_width,aimed_height,source_info,new_imageid):
    
        #read image,now the data is read as 16bit
        img_data = cv2.imread(os.path.join(raw_images_dir, img_filename),-1)
    
        #add one channel so it will be 3 channel
        img_data = img_data[:,:,np.newaxis]
    
        img_data_show = add_gt(tiff_image_visualization(img_data), bboxes)
        font = cv2.FONT_HERSHEY_SIMPLEX
    
    
        subimage_id = 0
        if len(bboxes) > 0:# if there are object in the raw image
    
            shape = img_data.shape  #return in the format [h,w,c]
            print(shape)
    
            if width !=shape[1] or height !=shape[0]: #the aidth and height is the read one from the xml file and the shape is the actual one of the image
                print('Actual size of image do not equal the annotated one')
    
            else:
                for start_w in range(0, shape[1], overlap_size_of_width):
                    # we use sliding window to crop the image and make decision about whether to save the image area
                    # through the location relation between the curent area and all the bboxes
                    # as well as the characteristic of the image area itself
                    for start_h in range(0, shape[0], overlap_size_of_height):
                        subimage_id += 1
                        sub_bboxes = []
                        start_w_new = start_w
                        start_h_new = start_h
    
                        # the crop range cannot beyond the image itself
                        # if they do, then we sacrifice the overlap size in width and height
                        if start_w + aimed_width > shape[1]:
                            start_w_new = shape[1] - aimed_width
                        if start_h + aimed_height > shape[0]:
                            start_h_new = shape[0] - aimed_height
                        top_left_x_in_raw_image = max(start_w_new, 0)
                        top_left_y_in_raw_image = max(start_h_new, 0)
                        bottom_right_x_in_raw_image = min(start_w + aimed_width, shape[1])
                        bottom_right_y_in_raw_image = min(start_h + aimed_height, shape[0])
    
                        #crop image
                        subImage = img_data[top_left_y_in_raw_image : bottom_right_y_in_raw_image, top_left_x_in_raw_image : bottom_right_x_in_raw_image]
    
                        #we do this to filter the image with too many zero pixel value
                        if do_filter_to_inappropriate_data(subImage):
                            continue
    
    
                        for bbox in bboxes:
                            # at first, we calculate the location of the overlap area between the current image area and all the bboxes
                            # actually, if one bbox do not overlap with the current area, the lacation calculated will be different with the real overlapped one
                            # the calculated location will not belong to the area of the bbox itself
                            temp_top_left_point_x = max(bbox[0], top_left_x_in_raw_image) #xmin
                            temp_top_left_point_y = max(bbox[2], top_left_y_in_raw_image) #ymin
                            temp_bottom_right_point_x = min(bbox[1], bottom_right_x_in_raw_image)  #xmax
                            temp_bottom_right_point_y = min(bbox[3], bottom_right_y_in_raw_image) #ymax
                            temp_bbox = [temp_top_left_point_x, temp_bottom_right_point_x, temp_top_left_point_y, temp_bottom_right_point_y]
    
                            if two_points_belong_to_the_orignial_bbox_area(bbox, temp_bbox):
                                #make sure the bbox do overlap with the current image area
                                #then we need to choose whether to save it to the annotation file of the current image according to the overlap rate
                                #here we set the threshold as 0.7
                                orignial_area = _bbox_area_computer(bbox)
                                temp_area = _bbox_area_computer(temp_bbox)
                                overlap_rate = temp_area / orignial_area
                                print('No:{0} overlap rate : {1}'.format(subimage_id,overlap_rate))
    
                                if overlap_rate >= 0.7:
                                    # in this part we first do some preparation work about visualization
                                    # so you can see whether you crop it properly during this process
                                    img_data_show = cv2.rectangle(img_data_show,
                                                                      (top_left_x_in_raw_image, top_left_y_in_raw_image), (
                                                                          bottom_right_x_in_raw_image,
                                                                          bottom_right_y_in_raw_image),
                                                                      (0, 0, 255), 10)
                                    center_point_of_the_new_image = [0.5 * (top_left_x_in_raw_image + bottom_right_x_in_raw_image),
                                                        0.5 * (top_left_y_in_raw_image + bottom_right_y_in_raw_image)]
    
                                    img_data_show = cv2.putText(img_data_show, '{}'.format(str(subimage_id)),
                                                                    (int(center_point_of_the_new_image[0]), int(center_point_of_the_new_image[1])), font, 5,
                                                                    (0, 255, 255), 10)
    
                                    # calculate the bbox location relative to the new image
                                    new_top_left_point_x = temp_bbox[0] - top_left_x_in_raw_image
                                    new_bottom_right_point_x = temp_bbox[1] - top_left_x_in_raw_image
                                    new_top_left_point_y = temp_bbox[2] - top_left_y_in_raw_image
                                    new_bottom_right_point_y = temp_bbox[3] - top_left_y_in_raw_image
                                    new_bbox = [new_top_left_point_x,new_bottom_right_point_x,new_top_left_point_y,new_bottom_right_point_y]
                                    sub_bboxes.append(new_bbox)
    
                            else:
                                continue
    
                        if sub_bboxes: #if the cropped area has object then save the image to the new dataset
                            new_imageid += 1
                            img_name = img_filename.replace('.tiff', '') + '_' + str(subimage_id) + '-' + str(
                                new_imageid) + '.tiff'
                            xml = os.path.join(xml_dir, img_name.replace('.tiff','.xml'))
                            save_to_xml(xml, subImage.shape, source_info,sub_bboxes, str(img_name))
                            img_path = os.path.join(img_dir,img_name)
                            cv2.imwrite(img_path, subImage)
    
                plt.figure(img_filename)
                plt.imshow(img_data_show, cmap=plt.cm.gray)
                plt.show()
    
                print('----------------------------------------end----------------------------------------------')
        return new_imageid
    
    
    raw_data = 'the raw data dir' # where you need to change
    raw_images_dir = os.path.join(raw_data, 'images')
    raw_label_dir = os.path.join(raw_data, 'annotations')
    images = [i for i in os.listdir(raw_images_dir) if 'tiff' in i]
    labels = [i for i in os.listdir(raw_label_dir) if 'xml' in i]
    print('find image:', len(images))
    print('find label:', len(labels))
    
    overlap_size = [256, 256]  # [width,height]
    aimed_size = [512, 512]  # [width,height]
    
    save_dir = 'where you want to save these data'
    img_dir = os.path.join(save_dir, 'images')
    xml_dir = os.path.join(save_dir, 'annotations')
    if os.path.exists(img_dir) == False:
        os.mkdir(img_dir)
    if os.path.exists(xml_dir) == False:
        os.mkdir(xml_dir)
    
    print('the image will be crop into {0}*{1} with {2},{3} overlap in width and height...'.format(aimed_size[0],aimed_size[1],overlap_size[0],overlap_size[1]))
    
    new_imageid = 0
    
    
    for img in os.listdir(raw_images_dir):
        xml_file = os.path.join(raw_label_dir, img.replace('.tiff', '') + '-label.xml')
        imgid, image_size, source_info, bboxes = read_annotation_xml(xml_file)
        print(imgid)
        print(source_info)
        new_imageid = crop_single_image(img, image_size[0],image_size[1],bboxes,overlap_size[0],overlap_size[1],aimed_size[0],aimed_size[1],source_info,new_imageid)
    

    实测代码可以跑通,如果你跑不通那么检查一下是不是路径,环境啥的出了问题

    结果展示

    基于原图的裁剪区域的可视化结果如下:
    中间有一部分代码计算了裁剪区域的中心位置,然后在中心位置写上了裁剪区域的标号,我裁剪的大小是512*512,用的步长是256,就是两个区域之间的重叠区域有256个像素宽和高,如果不展示出来这个数字就看不出来到底那个才是真正的框框。
    在这里插入图片描述
    在这里插入图片描述

    生成的标注格式数据如下:

    <annotation>
      <folder>AIR-SARShip-1.0-SUB</folder>
      <filename>SARShip-1.0-21_89-71.tiff</filename>
      <source>
        <database>AIRSAR</database>
        <resolution>3</resolution>
        <sensor>GF-3</sensor>
      </source>
      <size>
        <width>512</width>
        <height>512</height>
        <depth>1</depth>
      </size>
      <segmented>0</segmented>
      <object>
        <name>ship</name>
        <bndbox>
          <xmin>131</xmin>
          <ymin>186</ymin>
          <xmax>153</xmax>
          <ymax>223</ymax>
        </bndbox>
        <difficult>0</difficult>
      </object>
    </annotation>
    
    

    有写的不对的地方还望包涵哦,over

    展开全文
  • 遥感目标检测数据集及竞赛 2.数据集 1.遥感数据集 2.Simultaneous Cloud Detection and Removal From Bitemporal Remote Sensing Images Using Cascade Convolutional Neural Networks 3.深度学习中的遥感影像数据集...
    展开全文
  • 航空航天遥感图像目标检测数据集汇总

    万次阅读 热门讨论 2018-11-28 10:44:17
    1.DOTA:A Large-scale Dataset for Object Detection in Aerial Images。这是武大遥感国重实验室夏桂松和华科电信学院白翔联合做的一个数据集,2806张遥感图像(大小约4000*4000),188,282个instances,分为15...
  • 航空遥感图像(Aerial Images)目标检测数据集汇总

    万次阅读 多人点赞 2017-12-18 16:17:40
    常规目标检测数据集有很多,现在前沿的目标检测算法(如Faster R-CNN, Yolo, SSD, Mask R-CNN等)基本都是在这些常规数据集上实验的,但是,基于常规数据集训练的分类器,在航空遥感图像上的检测效果并不好,主要...
  • 上面两个链接包含了一些 遥感方面的数据集内容,主要包含 船舶、汽车、飞机、建筑物等单类数据集合 以及 包含棒球场、网球场、篮球场、田径场、海港、桥等多类别数据集遥感数据集相关链接 常用数据集有DOTAv1.0和...
  • 遥感图像目标检测公开数据集

    千次阅读 2020-04-20 00:51:07
    遥感图像目标检测公开数据集 DOTA 16类,带斜框,Google Earth, JL-1, GF-2 地址 UCAS-AOD 汽车和飞机两类目标以及背景负样本 地址 NWPU VHR-10 共有800张图像,其中包含目标的650张,背景图像150张,目标包括...
  • 遥感影像中常用的目标检测数据集

    千次阅读 2021-01-24 23:43:01
    遥感影像中常用的目标检测数据集1.DOTA2.UCAS-AOD3. NWPU VHR-104. RSOD-Dataset5. TGRS-HRRSD-Dataset6. TAS7. DIOR8. xView9. HRSC201610.VEDAI11.Cars Overhead With Context(COWC)12.ITCVD13.OpenSARShip14.DLR ...
  • VOC目标检测数据集的格式 其中图片存放在JPEGImages文件夹中,标注是xml文件,存储在Annotations文件中 关于train集和val集的txt划分存放在ImageSets文件夹下面的Main文件夹下 如下是VOC2012某张图片的标注信息xml...
  • 博主目前正尝试使用DOTA数据集 进行多类别任意方向遥感目标检测 一、DOTA数据集 论文github OBB -Faster-rcnn Deformable Model 1、已按照公式 完成xml 的转换 2、由于图片过大,不能直接送入网络,需要裁剪...
  • 目标检测数据集遥感

    千次阅读 2021-02-02 10:01:31
    提取码:RSAI 3.NWPU VHR-10 西北工业大学标注的航天遥感目标检测数据集,共有800张图像,其中包含目标的650张,背景图像150张,目标包括:飞机、舰船、油罐、棒球场、网球场、篮球场、田径场、港口、桥梁、车辆10个...
  • https://blog.csdn.net/zhengxinjie2/article/details/89203518 https://captain-whu.github.io/DOAI2019/dataset.html https://blog.csdn.net/mingqi1996/article/details/92651766 ... ...
  • 常规目标检测数据集有很多,现在前沿的目标检测算法(如Faster R-CNN, Yolo, SSD, Mask R-CNN等)基本都是在这些常规数据集上实验的,但是,基于常规数据集训练的分类器,在航空遥感图像上的检测效果并不好,主要...
  • 遥感影像场景下,图像的长宽少则几千×几千,多则几万×几万,不进行裁剪操作的话,无法进行目标检测模型训练。相比于语义分割任务的图像裁剪,目标检测任务的难点在于检测框的判定。下图是一个4000多×4000多的...
  • 【遥感图像目标检测】数据集DOTA: A Large-scale Dataset for Object ...尽管过去十年已经见证了目标检测的主要进步的自然场景,但由于缺乏好的注释数据集对象的空中场景,遥感目标检测领域进展缓慢。 为了推进对地
  • NWPU VHR-10 Dataset 是一个用于空间物体检测的 10 级地理遥感数据集,其拥有 650 张包含目标的图像和 150 张背景图像,共计 800 张,目标种类包括飞机、舰船、油罐、棒球场、网球场、篮球场、田径场、港口、桥梁和...
  • 文章目录前言方法介绍参考 前言 ...这篇博文将介绍旋转框的裁剪方法。 方法介绍 使用DOTA_devkit工具包中的imageSplit.py。 # example usage of ImgSplit split = splitbase(r'example', r'examplesplit') ...
  • 目标检测3维/点云/遥感数据集

    千次阅读 2020-11-02 22:43:28
    主要有包含建筑物的数据集 1. 点云分类(罗蒙诺索夫莫斯科国立大学) Legend: red — ground, black — building, navy — car, green — tree, cyan — low-vegetation. 链接:点云分类 2. Semantic3D 大规模点云分类...
  • 前几篇文章写了如何使用maskrcnn训练自己的数据集以及如何在maskrcnn中加入pointrend模块,我使用的都是torchvision官方提供的maskrcnn,因为torchvison版本的mask rcnn是继承自FasterRCNN的,所以这里顺便介绍下...
  • 遥感飞机数据集.zip

    2021-05-21 08:41:51
    遥感飞机目标检测数据集

空空如也

空空如也

1 2 3 4 5
收藏数 94
精华内容 37
关键字:

遥感目标检测数据集