精华内容
下载资源
问答
  • 请问,有没有微软coco数据集的标注工具使用的是什么,想要标注一个一样结构的关键点的数据集,有没有同学回答一下呢?
  • 转载自:OpenCV学堂,未经允许不得二次转载从此以后图像与视频数据标注不用为找工具发愁!好东西记得分享图像数据标注概述在深度学习领域,训练数据对训练结果有种至关重要的影响,在计算机视觉领域,除了公开的数据...

    转载自:OpenCV学堂,未经允许不得二次转载从此以后图像与视频数据标注不用为找工具发愁!好东西记得分享

    图像数据标注概述

    在深度学习领域,训练数据对训练结果有种至关重要的影响,在计算机视觉领域,除了公开的数据集之外,对很多应用场景都需要专门的数据集做迁移学习或者端到端的训练,这种情况需要大量的训练数据,取得这些数据方法有如下几种人工数据标注

    自动数据标注

    外包数据标注

    人工数据标注的好处是标注结果比较可靠,自动数据标注一般都需要二次复核,避免程序错误,外包数据标注很多时候会面临数据泄密与流失风险。人工数据标注特别是图像数据标注常用的标注工具从标注工具的软件属性上分类可以分为客户端与WEB端标注工具,推荐大家使用客户端标注工具或者离线的WEB端标注工具,在线的WEB端标注工具面临数据流失风险!请慎用!

    十大常用工具

    01

    LabelImg

    主页地址https://github.com/tzutalin/labelImg

    下载以后根据作者提供的安装指南即可安装,如果安装不上怎么办,不用这么麻烦,下面这个地址提供了直接下载的地址,下载预编译exe即可:https://github.com/zhaobai62/labelImg

    支持VOC2012格式与tfrecord自动生成!

    强烈推荐,简单好用。

    02

    Labelme

    主页地址https://github.com/wkentaro/labelme

    支持对象检测、图像语义分割数据标注,实现语言为Python与QT。

    支持矩形、圆形、线段、点标注

    支持视频标注

    支持导出VOC与COCO格式数据实例分割

    强烈推荐,实例分割都可以用它标注!

    03

    RectLabel

    https://rectlabel.com/

    支持对象检测,图像实例分割数据标注

    支持导出YOLO、KITTI、COCOJSON与CSV格式

    读写Pascal VOC格式的XML文件

    04

    OpenCV/CVAT

    官方主页https://github.com/opencv/cvat

    高效的计算机视觉标注工具,支持图像分类、对象检测框、图像语义分割、实例分割数据标注在线标注工具。支持图像与视频数据标注,最重要的是支持本地部署,无需担心数据外泄!

    05

    VOTT

    官方主页https://github.com/microsoft/VoTT

    微软发布的基于WEB方式本地部署的视觉数据标注工具。

    支持图像与视频数据标注

    支持导出CNTK/Pascal VOC格式

    支持导出TFRecord、CSV、VoTT格式

    当前主要分支版本有V1与V2版本。

    06

    LableBox

    官方主页https://github.com/Labelbox/Labelbox

    支持对象检测框、实例分割数据标注

    WEB方式的标注工具

    提供自定义标注API支持

    纯JS+HTML操作支持

    07

    VIA-VGG Image Annotatorhttp://www.robots.ox.ac.uk/~vgg/software/via/

    VGG发布的图像标准工具

    支持对象检测、图像语义分割与实例分割数据标注

    基于WEB方式的标注工具

    可以下载运行部署在本地

    特别之处,对人脸数据标注提供了各种方便的操作,人脸数据标注首选工具。

    08

    PixelAnnotationToolhttps://github.com/abreheret/PixelAnnotationTool

    图像语义分割与实例分割标注神器,交互式标注算法思想是基于OpenCV中分水岭算法实现。支持,可以直接下载编译好的二进制文件使用,下载地址如下:

    https://github.com/abreheret/PixelAnnotationTool/releases

    09

    point-cloud-annotation-toolhttps://github.com/springzfx/point-cloud-annotation-tool

    3D点云数据标注神器

    支持点云数据加载、保存与可视化

    支持点云数据选择

    支持3D BOX框生成

    支持KITTI-bin格式数据

    10

    Boobshttps://github.com/drainingsun/boobs

    专属的YOLO BBox标注工具,支持图像数据标准为YOLO格式

    现在也支持VOC/COCO格式数据导出

    基于WEB方式的标注工具

    支持下载zip包本地部署

    无需服务器端支持,直接浏览器支持打开boobs.html即可开始数据标注

    特别声明一下,上述排名不表示先后顺序!

    你也许还想看:

    展开全文
  • 数据标注工具CVAT教程

    千次阅读 2021-01-29 14:23:04
    数据标注工具CVAT教程 1. 先看标注图效果

                                              数据标注工具CVAT教程

    目录

    0. CVAT链接

    1. 标注图(以旋转框为例)导出可视化效果

    2. docker-容器安装cvat

    3. cvat标注教程

    3.1 支持的类型

    3.2 标注流程

    4. 类似paddle-OCR文本检测-文本识别 标注流程


    0. CVAT链接

    cvat:https://github.com/openvinotoolkit/cvat

    1. 标注图(以旋转框为例)导出可视化效果

    
                    '''
                    基于coco格式进行可视化
                    按照segmentation的点进行可视化,按照bbox的点进行可视化
                    前者为分割,后者为最小水平框,若求最小外接矩形,采用cv2即可
                    并且可以知道标注顺序
                    ===========================================
                    注意:
                    CVAT最新版本有些bug,对于yolo格式目标检测没有问题,但是旋转目标检测
                    需要导入or导入按照cvat images1.*格式!!!
                    ===========================================
                    '''

    2. docker-容器安装cvat

    TODO

    3. cvat标注教程

    3.1 支持的类型

    【1】图像分类-多属性;【2】2D-3D目标检测;【3】语义分割-实例分割;【4】旋转目标检测;【5】文字检测+文字识别

    3.2 标注流程

    假设你并不熟悉cvat的标注流程,这里以图像2D目标检测为例

    标注快捷键:N-自动画框-再按1次结束,DF前后移动1张,双击1:1,。。。

    【1】测试步骤:不管你有无预标注,先创建1个project,并且按照图像的1-2-3-4-5等步骤创建;

    【2】测试步骤:在创建task前,将2-3张图像压缩成1个zip文件,然后创建task,6-7-8-9,其中步骤9为每个间隔包含多少张图像,上传完成

    【3】测试步骤:以2D目标检测为例,选择水平矩形框标注,然后保存,再按照以yolo的格式导出,那么就可以知道cvat支持的标注格式要求,你按照对应格式准备数据即可!按照11-12步骤导出即可

    【4】测试步骤:若你有预标注,则参考对应格式准备即可,然后上传后,再执行1次13步骤,预标注需要2次上传,都是1个zip即可(图像+标注文件)

    以上步骤你懂了,其它的,步骤类似;

    4. 类似paddle-OCR文本检测-文本识别 标注流程

    https://github.com/openvinotoolkit/cvat/blob/develop/cvat/apps/documentation/user_guide.md

    展开全文
  • 数据标注工具

    2019-03-20 15:17:08
    LabelMe:最著名的标注工具之一 LabelBox:对于大型标记项目很合适,提供不同类型标记任务的选项 COCO UI:用于标注 COCO 数据集的工具 1. VIA:VGG IMAGE ANNOTATION,VGG图像标注器 链接 : ...

    VIA:VGG IMAGE ANNOTATION,VGG图像标注器

    LabelMe:最著名的标注工具之一

    LabelBox:对于大型标记项目很合适,提供不同类型标记任务的选项

    COCO UI:用于标注 COCO 数据集的工具

     

    1. VIA:VGG IMAGE ANNOTATION,VGG图像标注器

     链接  :    http://www.robots.ox.ac.uk/~vgg/software/via/

    Version 1.0.xVersion 2.0.x
    stable version with all basic featuresmajor upgrade with advanced new features

    详细使用可参考https://blog.csdn.net/heiheiya/article/details/81530952

    展开全文
  • COCO数据标注格式介绍

    千次阅读 2019-03-06 21:19:45
    'supercategory'表示当前这个类别从属的大类,例如自行车类从属于交通工具类这个大类。‘id’是当前这个类别的编号,总共80个类,编号从1-80,编号0表示背景。 再看image这个键: >>> len(val['images']) ...

    本博客参考自

    https://zhuanlan.zhihu.com/p/29393415

    https://blog.csdn.net/yeyang911/article/details/78675942

    这两篇介绍都挺好的,但是没有亲自查看json文件中的变量结构,总觉得记起来不是很深刻。

     

    因为我是做目标检测,只用到instance json,如果查看另外两类json文件,方法相同。

    首先把json文件读进来,它本身是一个字典,包含如下key

    >>> import json
    >>> val=json.load(open('instances_val2017.json', 'r'))
    >>> val.keys()
    dict_keys(['info', 'licenses', 'images', 'annotations', 'categories'])

    共五个键,先看几个轻量级的键

    >>> val['info']
    {'description': 'COCO 2017 Dataset', 'url': 'http://cocodataset.org', 'version': '1.0', 'year': 2017, 'contributor': 'COCO Consortium', 'date_created': '2017/09/01'}
    
    >>> val['licenses']
    [{'url': 'http://creativecommons.org/licenses/by-nc-sa/2.0/', 'id': 1, 'name': 'Attribution-NonCommercial-ShareAlike License'}, {'url': 'http://creativecommons.org/licenses/by-nc/2.0/', 'id': 2, 'name': 'Attribution-NonCommercial License'}, {'url': 'http://creativecommons.org/licenses/by-nc-nd/2.0/', 'id': 3, 'name': 'Attribution-NonCommercial-NoDerivs License'}, {'url': 'http://creativecommons.org/licenses/by/2.0/', 'id': 4, 'name': 'Attribution License'}, {'url': 'http://creativecommons.org/licenses/by-sa/2.0/', 'id': 5, 'name': 'Attribution-ShareAlike License'}, {'url': 'http://creativecommons.org/licenses/by-nd/2.0/', 'id': 6, 'name': 'Attribution-NoDerivs License'}, {'url': 'http://flickr.com/commons/usage/', 'id': 7, 'name': 'No known copyright restrictions'}, {'url': 'http://www.usa.gov/copyright.shtml', 'id': 8, 'name': 'United States Government Work'}]

    这两个key我们似乎没有用到,只是说明了数据集信息和版权相关的信息。

    接下来看categories这个键:

    >>> len(val['categories'])
    80
    >>> val['categories']
    [{'supercategory': 'person', 'id': 1, 'name': 'person'}, {'supercategory': 'vehicle', 'id': 2, 'name': 'bicycle'}, {'supercategory': 'vehicle', 'id': 3, 'name': 'car'}, {'supercategory': 'vehicle', 'id': 4, 'name': 'motorcycle'}, {'supercategory': 'vehicle', 'id': 5, 'name': 'airplane'}, {'supercategory': 'vehicle', 'id': 6, 'name': 'bus'}, {'supercategory': 'vehicle', 'id': 7, 'name': 'train'},

    这个键的值是长度为80的数组,这里我只展示了前几个,每个的结构都是一样的。'supercategory'表示当前这个类别从属的大类,例如自行车类从属于交通工具类这个大类。‘id’是当前这个类别的编号,总共80个类,编号从1-80,编号0表示背景。

    再看image这个键:

    >>> len(val['images'])
    5000
    >>> val['images'][:2]
    [{'license': 4, 'file_name': '000000397133.jpg', 'coco_url': 'http://images.cocodataset.org/val2017/000000397133.jpg', 'height': 427, 'width': 640, 'date_captured': '2013-11-14 17:02:52', 'flickr_url': 'http://farm7.staticflickr.com/6116/6255196340_da26cf2c9e_z.jpg', 'id': 397133}, {'license': 1, 'file_name': '000000037777.jpg', 'coco_url': 'http://images.cocodataset.org/val2017/000000037777.jpg', 'height': 230, 'width': 352, 'date_captured': '2013-11-14 20:55:31', 'flickr_url': 'http://farm9.staticflickr.com/8429/7839199426_f6d48aa585_z.jpg', 'id': 37777}]
    >>> val['images'][0].keys()
    dict_keys(['license', 'file_name', 'coco_url', 'height', 'width', 'date_captured', 'flickr_url', 'id'])

    images这个键有5000个值,表示5000张图片的信息,个人感觉比较重要的是‘file_name’,'height','width'和'id'。'height','width'表明图片的长和宽。

    最后看最重要的annotations键

    >>> len(val['annotations'])
    36781
    >>> val['annotations'][0]
    {'segmentation': [[510.66, 423.01, 511.72, 420.03, 510.45, 416.0, 510.34, 413.02, 510.77, 410.26, 510.77, 407.5, 510.34, 405.16, 511.51, 402.83, 511.41, 400.49, 510.24, 398.16, 509.39, 397.31, 504.61, 399.22, 502.17, 399.64, 500.89, 401.66, 500.47, 402.08, 499.09, 401.87, 495.79, 401.98, 490.59, 401.77, 488.79, 401.77, 485.39, 398.58, 483.9, 397.31, 481.56, 396.35, 478.48, 395.93, 476.68, 396.03, 475.4, 396.77, 473.92, 398.79, 473.28, 399.96, 473.49, 401.87, 474.56, 403.47, 473.07, 405.59, 473.39, 407.71, 476.68, 409.41, 479.23, 409.73, 481.56, 410.69, 480.4, 411.85, 481.35, 414.93, 479.86, 418.65, 477.32, 420.03, 476.04, 422.58, 479.02, 422.58, 480.29, 423.01, 483.79, 419.93, 486.66, 416.21, 490.06, 415.57, 492.18, 416.85, 491.65, 420.24, 492.82, 422.9, 493.56, 424.39, 496.43, 424.6, 498.02, 423.01, 498.13, 421.31, 497.07, 420.03, 497.07, 415.15, 496.33, 414.51, 501.1, 411.96, 502.06, 411.32, 503.02, 415.04, 503.33, 418.12, 501.1, 420.24, 498.98, 421.63, 500.47, 424.39, 505.03, 423.32, 506.2, 421.31, 507.69, 419.5, 506.31, 423.32, 510.03, 423.01, 510.45, 423.01]], 'area': 702.1057499999998, 'iscrowd': 0, 'image_id': 289343, 'bbox': [473.07, 395.93, 38.65, 28.67], 'category_id': 18, 'id': 1768}
    >>> val['annotations'][0].keys()
    dict_keys(['segmentation', 'area', 'iscrowd', 'image_id', 'bbox', 'category_id', 'id'])
    

    annotations各字段的含义如下:

    annotation{
        "id": int,    
        "image_id": int,
        "category_id": int,
        "segmentation": RLE or [polygon],
        "area": float,
        "bbox": [x,y,width,height],
        "iscrowd": 0 or 1,
    }

     

    segmentation字段是一个数组,若使用polygon格式(iscrowd字段为0),目标被4个点包起来,则segmentation有八个元素,分别表示四个点的x坐标和y坐标。

    area是被segmentation包起来的面积

    image_id表明了这个目标所在的图片id,跟images键的id字段对应

    Bbox是将segmentation包起来的水平矩形,注意x和y是矩形框左上角的坐标,width和height是框的宽度和高度

    category_id表明了这个目标的类别

    id是这个框的id,虽然不是从0开始的,但是每个框的id都是一样的

    >>> ids=[val['annotations'][i]['id'] for i in range(36781)]
    >>> sorted(ids)[:10]
    [283, 381, 567, 760, 810, 1363, 1367, 1536, 1599, 1747]
    >>> len(set(ids))
    36781
    >>> len(ids)
    36781

     

    最后借花献佛,贴一下前面提到的两篇博客的截图,讲的比较清楚。

    展开全文
  • COCO数据集的标注格式

    千次阅读 2018-03-20 10:34:25
    COCO数据集的标注格式
  • 图像/视频数据标注工具

    千次阅读 2019-07-15 14:22:53
    十个最常用深度学习图像/视频数据标注工具 原创: gloomyfish OpenCV学堂 从此以后图像与视频数据标注不用为找工具发愁!好东西记得分享 图像数据标注概述 在深度学习领域,训练数据对训练结果有种至关重要的影响,...
  • 数据标注工具

    千次阅读 2019-07-02 10:54:36
    LabelMe:最著名的标注工具之一,虽然其用户界面有点慢,特别是缩放高清图像时。 RectLabel:简单易用,只在 Mac 可用。 LabelBox:对于大型标记项目很合适,提供不同类型标记任务的选项。 COCO UI:用于标注 ...
  • COCO 数据库是由微软发布的一个大型图像数据集,该数据集专为对象检测、分割、人体关键点检测、语义分割和字幕生成而设计。如果你要了解 COCO 数据库的一些细节,你可以参考: MS COCO 数据集主页:...
  • COCO数据集的标注理解

    千次阅读 2018-10-25 15:05:09
    查看两篇博客:   (一) COCO Python API - 使用篇:... COCO数据集的标注格式:https://blog.csdn.net/yeyang911/article/details/78675942?utm_source=blog...
  • 可视化COCO数据集中的标注

    千次阅读 2019-10-05 16:32:17
    可视化COCO数据集中的标注 from pycocotools.coco import COCO import skimage.io as io import matplotlib.pyplot as plt import pylab, os, cv2, shutil pylab.rcParams['figure.figsize'] = (8.0, 10.0) coco_...
  • 数据标注工具大全汇总,有了这些工具再也不用自己开发了。 做数据标注三年了,总是遇到各种各样的需求,总是想找一款最高效,最快速,最好用的标注工具,最重要的是免费,经过三年的收集,大部分都是自己用过的,不...
  • 深度学习数据标注工具

    千次阅读 2019-01-03 22:48:13
    本文将标注工具适用的最佳运行环境分成了三类。 windows https://github.com/imistyrain/MRLabeler:如果只在windows下用的话首推我的工具,上手快,有校验脚本,可大大减轻工作量 ...
  • 可视化COCO数据集keypoints标注

    千次阅读 2020-06-19 00:07:51
    COCO关键点的标注格式为[x1,y1,v1,x2,y2,v2,…,x17,y17,v17],大小必为17×3。[x,y]代表以图片左上角为原点的关键点的坐标。v=0代表该点未标注,v=代表该点已标注,但不可见。v=2代表标注并可见。 显示标注信息的核心...
  • 图像数据标注概述 在深度学习领域,训练数据对训练结果有种至关重要的影响,在计算机视觉领域,除了公开的数据集之外,对很多应用场景都需要专门的数据集做迁移学习或者端到端的训练,这种情况需要大量的训练数据,...
  • COCO数据格式说明

    2021-04-28 20:17:33
    标注工具推荐:https://github.com/wkentaro/labelme labelme自带了转换VOC和COCO数据格式:labelme/examples COCO的 全称是Common Objects in COntext,是微软团队提供的一个可以用来进行图像识别的数据集。MS...
  • 时下流行的深度学习数据标注工具

    万次阅读 多人点赞 2018-09-04 16:36:00
    本文将标注工具适用的最佳运行环境分成了三类。 跨平台 https://github.com/Microsoft/VoTT:微软开发的,非常牛逼的工具,首推,使用教程 windows https://github.com/imistyrain/MRLabeler:如果只在windows下...
  • 本篇文章主要介绍了Win10系统,Python3环境下LabelImg数据标注工具的安装教程
  • COCO数据集中图像都是一样的,标注信息annotations的不同,表示不同的任务。分为: instances——实例分割 person_keypoints——关键点分割 stuff——语义分割 captions——图片的配文,是一句话 每个类别分别...
  • coco数据标注文件json格式化查看

    千次阅读 2019-06-12 15:06:38
    ubuntu如何快速格式化json文件 ...安装jq工具 sudo apt-get update sudo apt-get install jq 格式化json文件输出到新文件 cat 文件名 | jq . >newfile.json 例子: cat instanc...
  • labelme数据转成COCO数据

    万次阅读 热门讨论 2018-03-19 14:43:41
    参考: cocodataset/cocoapi philferriere/cocoapi- support Windows build and python3 COCO 标注详解 COCO数据集annotation内容 Dataset - COCO Dataset 数据特点 点击此处查看完整内容完整代码点击此处
  • 点击上方↑↑↑“OpenCV学堂”关注我从此以后图像与视频数据标注不用为找工具发愁!好东西记得分享图像数据标注概述在深度学习领域,训练数据对训练结果有种至关重要的影响,在计算机视觉领域,除了公开的数据集之外...
  • 采用labelme工具标注图片,制作数据集之后,需要将数据集转换为coco数据集的格式,送进网络训练。发现网上好多博客都是使用以下代码进行转换,但其中存在一定误差,因此,写博客记录一下怕坑过程。 代码如下: # ...
  • 来源:《构想:中文文本标注工具(附开源文本标注工具列表)》 Chinese-Annotator 来源:https://github.com/crownpku/Chinese-Annotator 能不能构建一个中文文本的标注工具,可以达到以下两个特点...
  • labelme标注数据集到COCO格式数据集转化,用于官方版Mask-Rcnn训练

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 2,418
精华内容 967
关键字:

coco数据标注工具