图像处理的数据集

2019-02-13 15:47:19 weixin_41770169 阅读数 1389

汇总_图像处理数据集:https://blog.csdn.net/qq_14845119/article/details/51913171

阿里汇总_各领域数据集:https://tianchi.aliyun.com/notebook/detail.html?spm=5176.9876270.0.0.5781e44aK90WWr&id=39308

                             可查看其中图像处理相关部分

知乎汇总_人脸数据集:https://zhuanlan.zhihu.com/p/31378836

汇总_各领域数据集:http://www.twistedwg.com/2018/04/09/download-dataset.html

 

关于人脸数据集整理:

http://www.twistedwg.com/2018/04/11/IMDB-WIKI-face_images.html

人脸数据集:http://umdfaces.io/

2012-08-11 10:04:13 bookwormno1 阅读数 4075

(1)该工具简单易用,功能强大,且集成了weka. 还可以任意添加组件。

          source:http://fiji.sc/wiki/index.php/About

(2)该工具网站上还提供了一些图像处理数据集

          http://fiji.sc/wiki/index.php/Public_data_sets

(3)下面的网址提供了用于图像处理的数据集

         http://www.incf.org/about/who-we-are/nodes/switzerland/data

 

 

Fiji is an image processing package based on ImageJ.

Fiji stands for Fiji is JustImageJ.

(For Fiji the island, see Fiji.)

In case you are familiar with Linux: if ImageJ was the kernel, Fiji would be a distribution.

Fiji enhances ImageJ by shipping with a set of plugins in a coherent menu structure, and comprehensive documentation.


Fiji is a project aiming at simplifying

  • The installation of ImageJ
  • The usage of ImageJ
  • The usage of specific, powerful ImageJ plugins
  • The development of plugins using ImageJ


Fiji supports numerous image processing procedures, and it's particularly oriented towards:

  • Image registration
  • Image segmentation
  • 3D reconstruction
  • 3D Visualization


Fiji is released under the General Public License.

Each component has its own license.

It is an Open Source project, so everybody is welcome to contribute with plugins, patches, bug reports, tutorials, documentation, and artwork. If you'd like to share any idea or project with us, please contact us via themailing list or viaIRC.


Fiji's users are all over the planet.


Fiji is developed by numerous contributors.


Fiji is supported by several institutions, directly and indirectly:

2018-07-12 18:09:23 haoji007 阅读数 5955

选自Analytics Vidhya,作者:Pranav Dar,机器之心编译。

本文介绍了 25 个深度学习开放数据集,包括图像处理、自然语言处理、语音识别和实际问题数据集。

介绍

深度学习(或生活中大部分领域)的关键在于实践。你需要练习解决各种问题,包括图像处理、语音识别等。每个问题都有其独特的细微差别和解决方法。

但是,从哪里获得数据呢?现在许多论文都使用专有数据集,这些数据集通常并不对公众开放。如果你想学习并应用技能,那么无法获取合适数据集是个问题。

如果你面临着这个问题,本文可以为你提供解决方案。本文介绍了一系列公开可用的高质量数据集,每个深度学习爱好者都应该试试这些数据集从而提升自己的能力。在这些数据集上进行工作将让你成为一名更好的数据科学家,你在其中学到的知识将成为你职业生涯中的无价之宝。我们同样介绍了具备当前最优结果的论文,供读者阅读,改善自己的模型。


如何使用这些数据集?

首先,你得明白这些数据集的规模非常大!因此,请确保你的网络连接顺畅,在下载时数据量没有或几乎没有限制。

使用这些数据集的方法多种多样,你可以应用各种深度学习技术。你可以用它们磨炼技能、了解如何识别和构建各个问题、思考独特的使用案例,也可以将你的发现公开给大家!

数据集分为三类——图像处理、自然语言处理和音频/语音处理。

让我们一起看看吧!


图像处理数据集

MNIST

链接:datahack.analyticsvidhya.com

MNIST 是最流行的深度学习数据集之一。这是一个手写数字数据集,包含一个有着 60000 样本的训练集和一个有着 10000 样本的测试集。对于在现实世界数据上尝试学习技术和深度识别模式而言,这是一个非常好的数据库,且无需花费过多时间和精力进行数据预处理。


大小:约 50 MB

数量:70000 张图像,共分为 10 个类别。

SOTA:《Dynamic Routing Between Capsules》


参考阅读:


MS-COCO

链接:cocodataset.org/#

COCO 是一个大型数据集,用于目标检测、分割和标题生成。它有以下几个特征:

  • 目标分割
  • 在语境中识别
  • 超像素物品分割
  • 33 万张图像(其中超过 20 万张是标注图像)
  • 150 万个目标实例
  • 80 个目标类别
  • 91 个物品分类
  • 每张图像有 5 个标题
  • 25 万张带有关键点的人像


大小:约 25 GB(压缩后)

数量:33 万张图像、80 个目标类别、每张图像 5 个标题、25 万张带有关键点的人像

SOTA:《Mask R-CNN》


参考阅读:

学界 | Facebook 新论文提出通用目标分割框架 Mask R-CNN:更简单更灵活表现更好

深度 | 用于图像分割的卷积神经网络:从 R-CNN 到 Mask R-CNN

资源 | Mask R-CNN 神应用:像英剧《黑镜》一样屏蔽人像


ImageNet

链接:image-net.org/

ImageNet 是根据 WordNet 层次来组织的图像数据集。WordNet 包含大约 10 万个短语,而 ImageNet 为每个短语提供平均约 1000 张描述图像。


大小:约 150 GB

数量:图像的总数约为 1,500,000;每一张图像都具备多个边界框和各自的类别标签。

SOTA:《Aggregated Residual Transformations for Deep Neural Networks》(arxiv.org/pdf/1611.0543


Open Images 数据集

链接:github.com/openimages/d

Open Images 是一个包含近 900 万个图像 URL 的数据集。这些图像使用包含数千个类别的图像级标签边界框进行了标注。该数据集的训练集包含 9,011,219 张图像,验证集包含 41,260 张图像,测试集包含 125,436 张图像。


大小:500GB(压缩后)

数量:9,011,219 张图像,带有超过 5000 个标签

SOTA:Resnet 101 image classification model (trained on V2 data):


VisualQA

链接:visualqa.org/

VQA 是一个包含图像开放式问题的数据集。这些问题的解答需要视觉和语言的理解。该数据集拥有下列有趣的特征:

  • 265,016 张图像(COCO 和抽象场景)
  • 每张图像至少包含 3 个问题(平均有 5.4 个问题)
  • 每个问题有 10 个正确答案
  • 每个问题有 3 个看似合理(却不太正确)的答案
  • 自动评估指标


大小:25GB(压缩后)

数量:265,016 张图像,每张图像至少 3 个问题,每个问题 10 个正确答案

SOTA:《Tips and Tricks for Visual Question Answering: Learnings from the 2017 Challenge》(arxiv.org/abs/1708.0271


街景门牌号数据集(SVHN)

链接:ufldl.stanford.edu/hous

这是一个现实世界数据集,用于开发目标检测算法。它需要最少的数据预处理过程。它与 MNIST 数据集有些类似,但是有着更多的标注数据(超过 600,000 张图像)。这些数据是从谷歌街景中的房屋门牌号中收集而来的。


大小:2.5GB

数量:6,30,420 张图像,共 10 类

SOTA:《Distributional Smoothing With Virtual Adversarial Training》(arxiv.org/pdf/1507.0067


这篇论文中,日本京都大学提出了局部分布式平滑度(LDS),一个关于统计模型平滑度的新理念。它可被用作正则化从而提升模型分布的平滑度。该方法不仅在 MNIST 数据集上解决有监督和半监督学习任务时表现优异,而且在 SVHN 和 NORB 数据上,Test Error 分别取得了 24.63 和 9.88 的分值。以上证明了该方法在半监督学习任务上的表现明显优于当前最佳结果。


CIFAR-10

链接:cs.toronto.edu/~kriz/ci

该数据集也用于图像分类。它由 10 个类别共计 60,000 张图像组成(每个类在上图中表示为一行)。该数据集共有 50,000 张训练集图像和 10,000 个测试集图像。数据集分为 6 个部分——5 个训练批和 1 个测试批。每批含有 10,000 张图像。


大小:170MB

数量:60,000 张图像,共 10 类

SOTA:《ShakeDrop regularization》(openreview.net/pdf?


Fashion-MNIST

链接:github.com/zalandoresea

Fashion-MNIST 包含 60,000 个训练集图像和 10,000 个测试集图像。它是一个类似 MNIST 的时尚产品数据库。开发人员认为 MNIST 的使用次数太多了,因此他们把这个数据集用作 MNIST 的直接替代品。每张图像都以灰度显示,并具备一个标签(10 个类别之一)。


大小:30MB

数量:70,000 张图像,共 10 类

SOTA:《Random Erasing Data Augmentation》(arxiv.org/abs/1708.0489


自然语言处理


IMDB 电影评论数据集

链接:ai.stanford.edu/~amaas/

该数据集对于电影爱好者而言非常赞。它用于二元情感分类,目前所含数据超过该领域其他数据集。除了训练集评论样本和测试集评论样本之外,还有一些未标注数据可供使用。此外,该数据集还包括原始文本和预处理词袋格式。


大小:80 MB

数量:训练集和测试集各包含 25,000 个高度两极化的电影评论

SOTA:《Learning Structured Text Representations》(arxiv.org/abs/1705.0920


Twenty Newsgroups 数据集

链接:https://archive.ics.uci.edu/ml/datasets/Twenty+Newsgroups

顾名思义,该数据集涵盖新闻组相关信息,包含从 20 个不同新闻组获取的 20000 篇新闻组文档汇编(每个新闻组选取 1000 篇)。这些文章有着典型的特征,例如标题、导语。


大小:20MB

数量:来自 20 个新闻组的 20,000 篇报道

SOTA:《Very Deep Convolutional Networks for Text Classification》(arxiv.org/abs/1606.0178


Sentiment140

链接:help.sentiment140.com/f

Sentiment140 是一个用于情感分析的数据集。这个流行的数据集能让你完美地开启自然语言处理之旅。数据中的情绪已经被预先清空。最终的数据集具备以下六个特征:

  • 推文的情绪极性
  • 推文的 ID
  • 推文的日期
  • 查询
  • 推特的用户名
  • 推文的文本


大小:80MB(压缩后)

数量: 1,60,000 篇推文

SOTA:《Assessing State-of-the-Art Sentiment Models on State-of-the-Art Sentiment Datasets》(aclweb.org/anthology/W1


WordNet

链接:wordnet.princeton.edu/

上文介绍 ImageNet 数据集时提到,WordNet 是一个大型英语 synset 数据库。Synset 也就是同义词组,每组描述的概念不同。WordNet 的结构让它成为 NLP 中非常有用的工具。


大小:10 MB

数量:117,000 个同义词集,它们通过少量的「概念关系」与其他同义词集相互关联

SOTA:《Wordnets: State of the Art and Perspectives》(aclanthology.info/pdf/R


Yelp 数据集

链接:yelp.com/dataset

这是 Yelp 出于学习目的而发布的开放数据集。它包含数百万个用户评论、商业属性(businesses attribute)和来自多个大都市地区的超过 20 万张照片。该数据集是全球范围内非常常用的 NLP 挑战赛数据集。


大小:2.66 GB JSON、2.9 GB SQL 和 7.5 GB 的照片(全部压缩后)

数量:5,200,000 个评论、174,000 份商业属性、200,000 张照片和 11 个大都市地区

SOTA:《Attentive Convolution》(arxiv.org/pdf/1710.0051


Wikipedia Corpus

链接:nlp.cs.nyu.edu/wikipedi

该数据集是维基百科全文的集合,包含来自超过 400 万篇文章的将近 19 亿单词。你能逐单词、逐短语、逐段地对其进行检索,这使它成为强大的 NLP 数据集。


大小:20 MB

数量:4,400,000 篇文章,包含 19 亿单词

SOTA:《Breaking The Softmax Bottelneck: A High-Rank RNN language Model》(arxiv.org/pdf/1711.0395


Blog Authorship Corpus

链接:u.cs.biu.ac.il/~koppel/

该数据集包含从数千名博主那里收集到的博客文章,这些数据从 blogger.com 中收集而来。每篇博客都以一个单独的文件形式提供。每篇博客至少出现 200 个常用的英语单词。


大小:300 MB

数量:681,288 篇博文,共计超过 1.4 亿单词。

SOTA:《Character-level and Multi-channel Convolutional Neural Networks for Large-scale Authorship Attribution》(arxiv.org/pdf/1609.0668


欧洲语言机器翻译数据集

链接:statmt.org/wmt18/index.


该数据集包含四种欧洲语言的训练数据,旨在改进当前的翻译方法。你可以使用以下任意语言对:

  • 法语 - 英语
  • 西班牙语 - 英语
  • 德语 - 英语
  • 捷克语 - 英语


大小: 约 15 GB

数量:约 30,000,000 个句子及对应的译文

SOTA:《Attention Is All You Need》


参考阅读:

学界 | 机器翻译新突破:谷歌实现完全基于 attention 的翻译架构

资源 | 谷歌全 attention 机器翻译模型 Transformer 的 TensorFlow 实现


音频/语音数据集


Free Spoken Digit 数据集

链接:github.com/Jakobovski/f

这是本文又一个受 MNIST 数据集启发而创建的数据集!该数据集旨在解决识别音频样本中口述数字的任务。这是一个公开数据集,所以希望随着人们继续提供数据,它会不断发展。目前,它具备以下特点:

  • 3 种人声
  • 1500 段录音(每个人口述 0- 9 各 50 次)
  • 英语发音

大小: 10 MB

数量: 1500 个音频样本

SOTA:《Raw Waveform-based Audio Classification Using Sample-level CNN Architectures》(arxiv.org/pdf/1712.0086


Free Music Archive (FMA)

链接:github.com/mdeff/fma

FMA 是音乐分析数据集,由整首 HQ 音频、预计算的特征,以及音轨和用户级元数据组成。它是一个公开数据集,用于评估 MIR 中的多项任务。以下是该数据集包含的 csv 文件及其内容:

  • tracks.csv:记录每首歌每个音轨的元数据,例如 ID、歌名、演唱者、流派、标签和播放次数,共计 106,574 首歌。
  • genres.csv:记录所有 163 种流派的 ID 与名称及上层风格名(用于推断流派层次和上层流派)。
  • features.csv:记录用 librosa 提取的常见特征。
  • echonest.csv:由 Echonest(现在的 Spotify)为 13,129 首音轨的子集提供的音频功能。


大小:约 1000 GB

数量:约 100,000 个音轨

SOTA:《Learning to Recognize Musical Genre from Audio》(arxiv.org/pdf/1803.0533


Ballroom

链接:mtg.upf.edu/ismir2004/c

该数据集包含舞厅的舞曲音频文件。它以真实音频格式提供了许多舞蹈风格的一些特征片段。以下是该数据集的一些特点:

  • 实例总数:698
  • 单段时长:约 30 秒
  • 总时长:约 20940 秒


大小:14 GB(压缩后)

数量:约 700 个音频样本

SOTA:《A Multi-Model Approach To Beat Tracking Considering Heterogeneous Music Styles》(pdfs.semanticscholar.org


Million Song 数据集

链接:labrosa.ee.columbia.edu

Million Song 数据集包含一百万首当代流行音乐的音频特征和元数据,可免费获取。其目的是:

  • 鼓励研究商业规模的算法
  • 为评估研究提供参考数据集
  • 作为使用 API 创建大型数据集的捷径(例如 The Echo Nest API)
  • 帮助入门级研究人员在 MIR 领域展开工作

数据集的核心是一百万首歌曲的特征分析和元数据。该数据集不包含任何音频,只包含导出要素。示例音频可通过哥伦比亚大学提供的代码(github.com/tb2332/MSong)从 7digital 等服务中获取。


大小:280 GB

数量:一百万首歌曲!

SOTA:《Preliminary Study on a Recommender System for the Million Songs Dataset Challenge》(ke.tu-darmstadt.de/even


LibriSpeech

链接:openslr.org/12/

该数据集是一个包含约 1000 小时英语语音的大型语料库。数据来源为 LibriVox 项目的音频书籍。该数据集已经得到了合理地分割和对齐。如果你还在寻找起始点,那么点击 kaldi-asr.org/downloads查看在该数据集上训练好的声学模型,点击 openslr.org/11/查看适合评估的语言模型。


大小:约 60 GB

数量:1000 小时的语音

SOTA:《Letter-Based Speech Recognition with Gated ConvNets》(arxiv.org/abs/1712.0944


VoxCeleb

链接:robots.ox.ac.uk/~vgg/da

VoxCeleb 是一个大型人声识别数据集。它包含来自 YouTube 视频的 1251 位名人的约 10 万段语音。数据基本上是性别平衡的(男性占 55%)。这些名人有不同的口音、职业和年龄。开发集和测试集之间没有重叠。对大明星所说的话进行分类并识别——这是一项有趣的工作。


大小:150 MB

数量:1251 位名人的 100,000 条语音

SOTA:《VoxCeleb: a large-scale speaker identification dataset》(robots.ox.ac.uk/~vgg/pu

为了帮助你练习,我们还提供了一些真实生活问题和数据集,供读者上手操作。这一部分,我们列举了 DataHack 平台上关于深度学习的问题。


推特情感分析数据集

链接:datahack.analyticsvidhya.com

涉及种族主义和性别歧视的偏激言论已成为 Twitter 的难题,因此将这类推文与其它推文分开已十分重要。在这个实际问题中,我们提供的 Twitter 数据包含普通言论和偏激言论。作为数据科学家,你的任务是确定哪些推文是偏激型推文,哪些不是。


大小: 3 MB

数量: 31,962 篇推文


印度演员年龄检测数据集

链接:datahack.analyticsvidhya.com

对于深度学习爱好者来说,这是一个令人着迷的挑战。该数据集包含数千名印度演员的图像,你的任务是确定他们的年龄。所有图像都由人工从视频帧中挑选和剪切而来,这导致规模、姿势、表情、亮度、年龄、分辨率、遮挡和妆容具有高度可变性。


大小:48 MB(压缩后)

数量:训练集中有 19,906 幅图像,测试集中有 6636 幅图像


城市声音分类数据集

链接:datahack.analyticsvidhya.com

该数据集包含超过 8000 个来自 10 个类别的城市声音片段。这个实际问题旨在向你介绍常见分类场景中的音频处理。


大小:训练集 - 3 GB(压缩后)、测试集 - 2 GB(压缩后)

数量:来自 10 个类别的 8732 个标注城市声音片段(单个片段音频时长 <= 4s)


原文链接:analyticsvidhya.com/blo

2019-09-03 21:24:16 weixin_42206852 阅读数 787

 

ImageNet

         ImageNet是一个计算机视觉系统识别项目,是目前世界上图像识别最大的数据库。是美国斯坦福的计算机科学家李飞飞模拟人类的识别系统建立的。能够从图片识别物体。目前已经包含14197122张图像,是已知的最大的图像数据库。每年的ImageNet大赛更是魂萦梦牵着国内外各个名校和大型IT公司以及网络巨头的心。图像如下图所示,需要注册ImageNet帐号才可以下载,下载链接为http://www.image-net.org/

 

PASCAL VOC

         PASCALVOC 数据集是视觉对象的分类识别和检测的一个基准测试,提供了检测算法和学习性能的标准图像注释数据集和标准的评估系统。图像如下图所示,包含VOC2007(430M),VOC2012(1.9G)两个下载版本。下载链接为http://pjreddie.com/projects/pascal-voc-dataset-mirror/

 

Labelme

         Labelme是斯坦福一个学生的母亲利用休息时间帮儿子做的标注,后来便发展为一个数据集。该数据集的主要特点包括

(1)专门为物体分类识别设计,而非仅仅是实例识别

(2)专门为学习嵌入在一个场景中的对象而设计

(3)高质量的像素级别标注,包括多边形框(polygons)和背景标注(segmentation masks)

(4)物体类别多样性大,每种物体的差异性,多样性也大。

(5)所有图像都是自己通过相机拍摄,而非copy

(6)公开的,免费的

         图像如下图所示,需要通过matlab来下载,一种奇特的下载方式,下载链接为http://labelme2.csail.mit.edu/Release3.0/index.php

COCO

       COCO是一种新的图像识别,分割和加字幕标注的数据集。主要由Tsung-Yi Lin(Cornell Tech),Genevieve Patterson (Brown),MatteoRuggero Ronchi (Caltech),Yin Cui (Cornell Tech),Michael Maire (TTI Chicago),Serge Belongie (Cornell Tech),Lubomir Bourdev (UC Berkeley),Ross Girshick (Facebook AI), James Hays (Georgia Tech),PietroPerona (Caltech),Deva Ramanan (CMU),Larry Zitnick (Facebook AI), Piotr Dollár (Facebook AI)等人收集而成。其主要特征如下

(1)目标分割

(2)通过上下文进行识别

(3)每个图像包含多个目标对象

(4)超过300000个图像

(5)超过2000000个实例

(6)80种对象

(7)每个图像包含5个字幕

(8)包含100000个人的关键点

         图像如下图所示,支持Matlab和Python两种下载方式,下载链接为http://mscoco.org/

SUN

         SUN数据集包含131067个图像,由908个场景类别和4479个物体类别组成,其中背景标注的物体有313884个。图像如下图所示,下载链接为http://groups.csail.mit.edu/vision/SUN/

Caltech

         Caltech是加州理工学院的图像数据库,包含Caltech101和Caltech256两个数据集。该数据集是由Fei-FeiLi, Marco Andreetto, Marc 'Aurelio Ranzato在2003年9月收集而成的。Caltech101包含101种类别的物体,每种类别大约40到800个图像,大部分的类别有大约50个图像。Caltech256包含256种类别的物体,大约30607张图像。图像如下图所示,下载链接为http://www.vision.caltech.edu/Image_Datasets/Caltech101/

Corel5k

         这是Corel5K图像集,共包含科雷尔(Corel)公司收集整理的5000幅图片,故名:Corel5K,可以用于科学图像实验:分类、检索等。Corel5k数据集是图像实验的事实标准数据集。请勿用于商业用途。私底下学习交流使用。Corel图像库涵盖多个主题,由若干个CD组成,每个CD包含100张大小相等的图像,可以转换成多种格式。每张CD代表一个语义主题,例如有公共汽车、恐龙、海滩等。Corel5k自从被提出用于图像标注实验后,已经成为图像实验的标准数据集,被广泛应用于标注算法性能的比较。Corel5k由50张CD组成,包含50个语义主题。

         Corel5k图像库通常被分成三个部分:4000张图像作为训练集,500张图像作为验证集用来估计模型参数,其余500张作为测试集评价算法性能。使用验证集寻找到最优模型参数后4000张训练集和500张验证集混合起来组成新的训练集。

         该图像库中的每张图片被标注1~5个标注词,训练集中总共有374个标注词,在测试集中总共使用了263个标注词。图像如下图所示,很遗憾本人也未找到官方下载路径,于是github上传了一份,下载链接为https://github.com/watersink/Corel5K

 

 

CIFAR(Canada Institude For Advanced Research)

      CIFAR是由加拿大先进技术研究院的AlexKrizhevsky, Vinod Nair和Geoffrey Hinton收集而成的80百万小图片数据集。包含CIFAR-10和CIFAR-100两个数据集。 Cifar-10由60000张32*32的RGB彩色图片构成,共10个分类。50000张训练,10000张测试(交叉验证)。这个数据集最大的特点在于将识别迁移到了普适物体,而且应用于多分类。CIFAR-100由60000张图像构成,包含100个类别,每个类别600张图像,其中500张用于训练,100张用于测试。其中这100个类别又组成了20个大的类别,每个图像包含小类别和大类别两个标签。官网提供了Matlab,C,python三个版本的数据格式。图像如下图所示,下载链接为http://www.cs.toronto.edu/~kriz/cifar.html

人脸数据库:

AFLW(Annotated Facial Landmarks in the Wild)

       AFLW人脸数据库是一个包括多姿态、多视角的大规模人脸数据库,而且每个人脸都被标注了21个特征点。此数据库信息量非常大,包括了各种姿态、表情、光照、种族等因素影响的图片。AFLW人脸数据库大约包括25000万已手工标注的人脸图片,其中59%为女性,41%为男性,大部分的图片都是彩色,只有少部分是灰色图片。该数据库非常适合用于人脸识别、人脸测、人脸对齐等方面的究,具有很高的研究价值。图像如下图所示,需要申请帐号才可以下载,下载链接为http://lrs.icg.tugraz.at/research/aflw/

 

LFW(Labeled Faces in the Wild)

       LFW是一个用于研究无约束的人脸识别的数据库。该数据集包含了从网络收集的13000张人脸图像,每张图像都以被拍摄的人名命名。其中,有1680个人有两个或两个以上不同的照片。这些数据集唯一的限制就是它们可以被经典的Viola-Jones检测器检测到(a hummor)。图像如下图所示,下载链接为http://vis-www.cs.umass.edu/lfw/index.html#download

AFW(Annotated Faces in the Wild)

       AFW数据集是使用Flickr(雅虎旗下图片分享网站)图像建立的人脸图像库,包含205个图像,其中有473个标记的人脸。对于每一个人脸都包含一个长方形边界框,6个地标和相关的姿势角度。数据库虽然不大,额外的好处是作者给出了其2012 CVPR的论文和程序以及训练好的模型。图像如下图所示,下载链接为http://www.ics.uci.edu/~xzhu/face/

 

FDDB(Face Detection Data Set and Benchmark)

       FDDB数据集主要用于约束人脸检测研究,该数据集选取野外环境中拍摄的2845个图像,从中选择5171个人脸图像。是一个被广泛使用的权威的人脸检测平台。图像如下图所示,下载链接为http://vis-www.cs.umass.edu/fddb/

WIDER FACE

   WIDER FACE是香港中文大学的一个提供更广泛人脸数据的人脸检测基准数据集,由YangShuo, Luo Ping ,Loy ,Chen Change ,Tang Xiaoou收集。它包含32203个图像和393703个人脸图像,在尺度,姿势,闭塞,表达,装扮,关照等方面表现出了大的变化。WIDER FACE是基于61个事件类别组织的,对于每一个事件类别,选取其中的40%作为训练集,10%用于交叉验证(cross validation),50%作为测试集。和PASCAL VOC数据集一样,该数据集也采用相同的指标。和MALF和Caltech数据集一样,对于测试图像并没有提供相应的背景边界框。图像如下图所示,下载链接为http://mmlab.ie.cuhk.edu.hk/projects/WIDERFace/

 

CMU-MIT

     CMU-MIT是由卡内基梅隆大学和麻省理工学院一起收集的数据集,所有图片都是黑白的gif格式。里面包含511个闭合的人脸图像,其中130个是正面的人脸图像。图像如下图所示,没有找到官方链接,Github下载链接为https://github.com/watersink/CMU-MIT

 

GENKI

         GENKI数据集是由加利福尼亚大学的机器概念实验室收集。该数据集包含GENKI-R2009a,GENKI-4K,GENKI-SZSL三个部分。GENKI-R2009a包含11159个图像,GENKI-4K包含4000个图像,分为“笑”和“不笑”两种,每个图片的人脸的尺度大小,姿势,光照变化,头的转动等都不一样,专门用于做笑脸识别。GENKI-SZSL包含3500个图像,这些图像包括广泛的背景,光照条件,地理位置,个人身份和种族等。图像如下图所示,下载链接为http://mplab.ucsd.edu,如果进不去可以,同样可以去下面的github下载,链接https://github.com/watersink/GENKI

IJB-A (IARPA JanusBenchmark A)

       IJB-A是一个用于人脸检测和识别的数据库,包含24327个图像和49759个人脸。图像如下图所示,需要邮箱申请相应帐号才可以下载,下载链接为http://www.nist.gov/itl/iad/ig/ijba_request.cfm

MALF (Multi-Attribute Labelled Faces)

       MALF是为了细粒度的评估野外环境中人脸检测模型而设计的数据库。数据主要来源于Internet,包含5250个图像,11931个人脸。每一幅图像包含正方形边界框,俯仰、蜷缩等姿势等。该数据集忽略了小于20*20的人脸,大约838个人脸,占该数据集的7%。同时,该数据集还提供了性别,是否带眼镜,是否遮挡,是否是夸张的表情等信息。图像如下图所示,需要申请才可以得到官方的下载链接,链接为http://www.cbsr.ia.ac.cn/faceevaluation/

MegaFace

    MegaFace资料集包含一百万张图片,代表690000个独特的人。所有数据都是华盛顿大学从Flickr(雅虎旗下图片分享网站)组织收集的。这是第一个在一百万规模级别的面部识别算法测试基准。 现有脸部识别系统仍难以准确识别超过百万的数据量。为了比较现有公开脸部识别算法的准确度,华盛顿大学在去年年底开展了一个名为“MegaFace Challenge”的公开竞赛。这个项目旨在研究当数据库规模提升数个量级时,现有的脸部识别系统能否维持可靠的准确率。图像如下图所示,需要邮箱申请才可以下载,下载链接为http://megaface.cs.washington.edu/dataset/download.html

300W

       300W数据集是由AFLW,AFW,Helen,IBUG,LFPW,LFW等数据集组成的数据库。图像如下图所示,需要邮箱申请才可以下载,下载链接为http://ibug.doc.ic.ac.uk/resources/300-W/

 

IMM Data Sets

       IMM人脸数据库包括了240张人脸图片和240个asf格式文件(可以用UltraEdit打开,记录了58个点的地标),共40个人(7女33男),每人6张人脸图片,每张人脸图片被标记了58个特征点。所有人都未戴眼镜,图像如下图所示,下载链接为http://www2.imm.dtu.dk/~aam/datasets/datasets.html

 

MUCT Data Sets

         MUCT人脸数据库由3755个人脸图像组成,每个人脸图像有76个点的地标(landmark),图片为jpg格式,地标文件包含csv,rda,shape三种格式。该图像库在种族、关照、年龄等方面表现出更大的多样性。具体图像如下图所示,下载链接为http://www.milbo.org/muct/

ORL  (AT&T Dataset)

         ORL数据集是剑桥大学AT&T实验室收集的一个人脸数据集。包含了从1992.4到1994.4该实验室的成员。该数据集中图像分为40个不同的主题,每个主题包含10幅图像。对于其中的某些主题,图像是在不同的时间拍摄的。在关照,面部表情(张开眼睛,闭合眼睛,笑,非笑),面部细节(眼镜)等方面都变现出了差异性。所有图像都是以黑色均匀背景,并且从正面向上方向拍摄。

         其中图片都是PGM格式,图像大小为92*102,包含256个灰色通道。具体图像如下图所示,下载链接为http://www.cl.cam.ac.uk/research/dtg/attarchive/facedatabase.html

 

VGG Face dataset

该数据集包含了2622个不同的人,每个人包含1000张图片,是一个训练人脸识别的大的数据集,官网提供了每个图片的URL,需要自己解析下载,当然有些链接是需要翻墙的,要不可能下载不全哦。

下载链接:http://www.robots.ox.ac.uk/~vgg/data/vgg_face/

 

CASIA WebFace Database

该数据集为中科院自动化所,李子青老师组开源的数据集,包含了10575类人,一共494414张图片,其中有3类人和lfw中的一样。该数据集主要用于人脸识别。图像都是著名电影中crop而出的,每个图片的大小都是250*250,每个类下面都有3张以上的图片,非常适合做人脸识别的训练。现在发paper比较一致的做法都是在该数据集上训练下,再在lfw数据集做个测试。需要邮箱申请,下载链接:http://www.cbsr.ia.ac.cn/english/CASIA-WebFace-Database.html

 

CelebA(Large-scale CelebFaces Attributes dataset)

该数据集为香港中文大学汤晓鸥老师组开源的数据集,主要包含了5个关键点,40个属性值等,包含了202599张图片,图片都是高清的名人图片,可以用于人脸检测,5点训练,人脸头部姿势的训练等。下载链接:http://mmlab.ie.cuhk.edu.hk/projects/CelebA.html

YouTuBe Faces DB

该数据集主要用于非约束条件下的视频中人脸识别,姿势判定等。该数据集包含1595个不同人的3425个视频,平均每个人的类别包含了2.15个视频,每个类别最少包含48帧,最多包含6070帧,平均包含181.3帧。下载链接:http://www.cslab.openu.ac.il/agas/,或者,http://www.cslab.openu.ac.il/download/,如果没有效果,可以尝试filezilla下载,

server:agas.openu.ac.il

Path: /v/data9/cslab/wolftau/

filezilla模式设置为"Transfer mode"

 

行人检测数据库

INRIA Person Dataset

         Inria数据集是最常使用的行人检测数据集。其中正样本(行人)为png格式,负样本为jpg格式。里面的图片分为只有车,只有人,有车有人,无车无人四个类别。图片像素为70*134,96*160,64*128等。具体图像如下图所示,下载链接为http://pascal.inrialpes.fr/data/human/

CaltechPedestrian Detection Benchmark

         加州理工学院的步行数据集包含大约包含10个小时640x480 30Hz的视频。其主要是在一个在行驶在乡村街道的小车上拍摄。视频大约250000帧(在137个约分钟的长段),共有350000个边界框和2300个独特的行人进行了注释。注释包括包围盒和详细的闭塞标签之间的时间对应关系。更多信息可在其PAMI 2012 CVPR 2009标杆的论文获得。具体图像如下图所示,下载链接为http://www.vision.caltech.edu/Image_Datasets/CaltechPedestrians/

 

MIT cbcl (center for biological and computational learning)Pedestrian Data 

         该数据集主要包含2个部分,一部分为128*64的包含924个图片的ppm格式的图片,另一部分为从打图中分别切割而出的小图,主要包含胳膊,脑袋,脚,腿,头肩,身体等。具体图像如下图所示,下载链接为http://cbcl.mit.edu/software-datasets/PedestrianData.html,需要翻墙才可以。

年龄,性别数据库

Adience

         该数据集来源为Flickr相册,由用户使用iPhone5或者其它智能手机设备拍摄,同时具有相应的公众许可。该数据集主要用于进行年龄和性别的未经过滤的面孔估计。同时,里面还进行了相应的landmark的标注。是做性别年龄估计和人脸对齐的一个数据集。图片包含2284个类别和26580张图片。具体图像如下图所示,下载链接为http://www.openu.ac.il/home/hassner/Adience/data.html#agegender

车辆数据库

KITTI(Karlsruhe Institute ofTechnology and Toyota Technological Institute)

         KITTI包含7481个训练图片和7518个测试图片。所有图片都是真彩色png格式。该数据集中标注了车辆的类型,是否截断,遮挡情况,角度值,2维和3维box框,位置,旋转角度,分数等重要的信息,绝对是做车载导航的不可多得的数据集。具体图像如下图所示,下载链接为http://www.cvlibs.net/datasets/kitti/

字符数据库

MNIST(Mixed National Instituteof Standards and Technology)

         MNIST是一个大型的手写数字数据库,广泛用于机器学习领域的训练和测试,由纽约大学的Yann LeCun整理。MNIST包含60000个训练集,10000个测试集,每张图都进行了尺度归一化和数字居中处理,固定尺寸大小为28*28。具体图像如下图所示,下载链接为http://yann.lecun.com/exdb/mnist/

人群密度估计数据库

UCSD 

该数据集分为,UCSD Pedestrain ,people annotation,people counting三个部分,下载链接为:http://visal.cs.cityu.edu.hk/downloads/

 

PETS

该数据集包含S0,S1,S2,S3四个子集,S0为训练数据,S1为行人计数和密度估计,S2为行人跟踪,S3为流分析和事件识别,下载链接为:http://www.cvg.reading.ac.uk/PETS2009/a.html

 

Mall dataset

下载链接为:http://personal.ie.cuhk.edu.hk/~ccloy/downloads_mall_dataset.html

ShanghaiTech_Crowd_Counting_Dataset:

该数据集为上海科技大学研究生张营营,在其2016cvpr中所使用的数据集,数据集分为A,B两部分,每一部分都分好了train和test,下载链接为:https://pan.baidu.com/s/1gfyNBTh

UCF_CC_50:

官方的我也没找到,自己传一个自己的,下载链接为:http://download.csdn.net/detail/qq_14845119/9800218

 

人头检测数据库

HollywoodHeads dataset

该数据集为从视频中截取的图片,包含224740张jpeg格式图片,还有xml格式的标注,和VOC的标注方式一样。下载链接为:http://www.di.ens.fr/willow/research/headdetection/release/HollywoodHeads.zip

车型识别数据库

CompCars

该数据集包含208826个车辆图片工1716种最新款的车辆型号,是由实际场景和网上图片组成的数据集。包含了车辆的,

car hierarchy(car make ,car model,year of manufacture),

car attribute(maximum speed, displacement, num of doors, num of seats, type of car),

viewpoints(front(F), rear(R), side(S), front-side(FS), rear-side(RS)),

car parts(headlight ,taillight, fog light, air intake, console, steering wheel, dashboard, gear lever )

等属性。下载链接为,http://mmlab.ie.cuhk.edu.hk/datasets/comp_cars/index.html

 

 

持续跟新中……

2019-01-08 09:58:43 iteapoy 阅读数 6313

自己做数字图像处理的时候一点点收集的数据集。

灰度图含:BSD68,Set12,RN16。

彩色图含:CBSD68,Kodak24,McMaster,RNI15,CSet8

预览含下载链接。

 

BSD68

数字图像处理常用数据集BSD68,68张灰度图,大小不一。

下载链接:

数字图像处理数据集(一)-BSD68 

https://download.csdn.net/download/iteapoy/10902860

 

CBSD68 

数字图像处理常用数据集CBSD68,68张彩色图,大小不一。

下载链接:

数字图像处理数据集(二)-CBSD68

https://download.csdn.net/download/iteapoy/10902888

 

Set12

数字图像处理常用数据集Set12,12张灰度图(含lena,cameraman,house,pepper,fishstar,monarch,airplane,parrot,barbara,ship,man,couple),大小都为256*256.

下载链接:

数字图像处理数据集(三)-Set12

https://download.csdn.net/download/iteapoy/10903033

 

CSet8

数字图像处理常用数据集CSet8,8张彩色图(含lena,house,pepper,monarch,airplane,baboon,barbara,ship),大小都为256*256.还有一张未裁剪的monarch.

下载链接:

数字图像处理数据集(四)-CSet8

https://download.csdn.net/download/iteapoy/10903037

 

Kodak24

数字图像处理常用数据集Kodak24,24张彩色图,大小都为500*500

下载链接:

数字图像处理数据集(五)-Kodak24

https://download.csdn.net/download/iteapoy/10903047

 

McMaster

数字图像处理常用数据集McMaster,.tif格式,18张彩色图,大小都为500*500

下载链接:

数字图像处理数据集(六)-McMaster

https://download.csdn.net/download/iteapoy/10903057

RNI6

数字图像处理常用数据集RNI6,含6张灰度图,大小不一。

下载链接:

数字图像处理数据集(七)-RNI6

https://download.csdn.net/download/iteapoy/10903065

 

RN15

数字图像处理常用数据集RN15,含15张彩色图,大小不一。

下载链接:

数字图像处理数据集(八)-RN15

https://download.csdn.net/download/iteapoy/10903181