精华内容
下载资源
问答
  • 图像分类数据集

    千次阅读 2019-10-19 12:04:24
    第5章图像分类数据集 不是简单罗列所有的数据集,而是详细讲解了每个数据集的特点,应用场景,发展历史。

    1. MNIST

    MNIST数据集的一个样例

    MNIST数据集的一个样例

    一般机器学习框架都使用MNIST作为入门,就像"Hello World"对于任何一门编程语言一样。
    MNIST的全称是Modified National Institute of Standard and Technology.
    参考文献:
    [LeCun et al., 1998a]
    Y. LeCun, L. Bottou, Y. Bengio, and P. Haffner. “Gradient-based learning applied to document recognition.” Proceedings of the IEEE, 86(11):2278-2324, November 1998. [on-line version]

    Yann LeCun 是纽约大学教授、Facebook 副总裁和首席 AI 科学家,2018年图灵奖得主
    Yann LeCun在1998年提出卷积神经网络,并将MNIST的错误率下降到0.7%。
    MNIST官网有各种不同方法在这个数据集上的性能。
    目前MNIST官网上列出的最优算法是Ciresan et al. CVPR 2012,错误率为0.23%。下表是这篇论文的试验结果。
    在这里插入图片描述

    2. Fashion-MNIST

    Fashion-MNIST 是一个替代 MNIST 手写数字集 的图像数据集。 它是由 Zalando(一家德国的时尚科技公司)旗下的研究部门提供。其涵盖了来自 10 种类别的共 7 万个不同商品的正面图片。

    Fashion-MNIST 的大小、格式和训练集/测试集划分与原始的 MNIST 完全一致,甚至文件名都完全一致。你可以直接用它替代原始的MNIST,且不需要改动任何的代码。

    Why we made Fashion-MNIST?
    In fact, MNIST is often the first dataset researchers try.
    “If it doesn’t work on MNIST, it won’t work at all”, they said.
    “Well, if it does work on MNIST, it may still fail on others.”

    在这里插入图片描述

    Fashion-MNIST数据集的一个样例

    Fashion-MNIST: a Novel Image Dataset for Benchmarking Machine Learning Algorithms. Han Xiao, Kashif Rasul, Roland Vollgraf. [arXiv:1708.07747]
    [github下载地址],github上有各种算法在Fashion-MNIST数据集上的性能测评。
    [Fashion-MNIST: Year In Review] 数据集作者回顾了数据集发布一年来对业界的贡献。

    3.CIFAR-10和CIFAR-100

    CIFAR-10和CIFAR-100都出自于规模更大的一个数据集80 million tiny images dataset。这个是一个大项目,你可以点击那个big map提交自己的标签,可以帮助他们训练让计算机识别物体的模型)。在Kaggle上有关CIFAR-10的介绍。

    Please cite this technical report if you use this dataset: Learning Multiple Layers of Features from Tiny Images, Alex Krizhevsky, 2009.

    就像MNIST,CIFAR-10是在计算机视觉和机器学习文献中的另一个标准的基准数据集。
    CIFAR-10数据集分为5个batch的训练集和1个batch的测试集,每个batch包含10,000张图片。每张图像尺寸为32*32的RGB图像,且包含有标签。一共有10个标签:airplane、automobile、bird、cat、deer、dog、frog、horse、ship、truck十个类别。

    在这里插入图片描述

    CIFAR-10数据集的一个样例

    CIFAR-100这个数据集和cifar10类似,它有100个类,每个类包含600个图像,600个图像中有500个训练图像和100个测试图像。100类实际是由20个类(每个类又包含5个子类)构成(5*20=100)。

    类型如下:
    在这里插入图片描述

    4. Caltech 101

    2004年,李飞飞介绍了CALTECH 101数据集(加利福尼亚理工学院101类图像数据集)。该数据集作为目标检测的流行的基准数据集。通常用于目标检测(如预测图像中特定对象的包围框的(x,y)坐标),有标注目标框坐标(Outlines of the objects in the pictures)。我们也可以用CALTECH-101来研究深度学习。CALTECH-101具有极大的类别失衡,使得它可以用于类别失衡算法方面的研究。

    之前的图像分类方法在CALTECH-101上的精确度在35%-65%之间。目前可以利用深度学习用于图像分类来达到99%的分类正确率。下面表格中是各种算法在这个数据集上的性能。
    Table of results for Caltech 101 dataset

    在这里插入图片描述

    5. ImageNet

    5.1 ImageNet是什么?

    ImageNet是李飞飞教授的一个项目,旨在根据一组定义的单词和短语,将图像标记并分类到将近2.2万个类别中。
    超过1400万的图像URL被ImageNet手动注释,以指示图片中的对象;在至少一百万个图像中,还提供了边界框。ImageNet包含2万多个类别。
    为了管理如此多的数据,采用WordNet层次管理,在WordNet中的每个有意义的单词或短语称为同义词集(synet)。在InageNet中,图像依据这些synet组织,目标是每个synet包含1000+的图像。
    相关博客:

    华人包揽CVPR 2019最佳论文,李飞飞ImageNet成就经典

    李飞飞总结 8 年 ImageNet 历史,宣布挑战赛最终归于 Kaggle

    斯坦福大学李飞飞最新演讲:ImageNet后,我专注于这五件事

    5.2 ILSVRC

    在计算机视觉和深度学习背景下,当人们谈论ImageNet时,很可能他们谈到的是ImageNet Large Scale Visual Recognition Challenge或者简写的ILSVRC。

    在这个挑战中图像分类的目标是训练一个模型,使用大概120万张图像用于训练,50000张用于验证,100000张用于测试,能够将图像分类到1000个不同的类别中。这1000个类别代表了我们日常生活中遇到的目标类别,如不同种类的狗、猫,不同的车辆等等。

    自2010年以来,ImageNet项目每年举办一次软件比赛,即ImageNet大规模视觉识别挑战赛(ILSVRC),软件程序竞相正确分类检测物体和场景。 ImageNet挑战使用了一个“修剪”的1000个非重叠类的列表。2012年在解决ImageNet挑战方面取得了巨大的突破,被广泛认为是深度学习革命的开始。自2012年以来,这项挑战的排行榜一直被CNNs和深度学习技术占据。从下图中可以看到,深度学习技术采用的神经网络层数越来越多,性能越来越好。2016年ILSVRC冠军的错误率是2.991%,低于人类的平均错误率5.1%。

    在这里插入图片描述

    6. 各个数据集上的最新进展

    Classification datasets results:[What is the class of this image ?]

    在这里插入图片描述

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    其他参考资料

    更多图像分类的数据集
    上面这个博客中不是简单罗列所有的数据集,而是详细讲解了每个数据集的特点,应用场景,发展历史。

    展开全文
  • SVM真实数据集多分类

    千次阅读 2019-03-18 15:07:06
    SVM真实数据集——献血案例 多分类的方式
    展开全文
  • 采用Iris数据集进行多分类问题的训练,Iris也称鸢尾花卉数据集,是一类多重变量分析的数据集数据集包含150个数据集,分为3类,每类50个数据,每个数据包含4个属性。可通过花萼长度,花萼宽度,花瓣长度,花瓣宽度4...

    实例描述

    采用Iris数据集进行多分类问题的训练,Iris也称鸢尾花卉数据集,是一类多重变量分析的数据集。数据集包含150个数据集,分为3类,每类50个数据,每个数据包含4个属性。可通过花萼长度,花萼宽度,花瓣长度,花瓣宽度4个属性预测鸢尾花卉属于(Setosa,Versicolour,Virginica)三个种类中的哪一类。

    这里采用sklearn中的数据集,首先把数据绘制出来。

    在把这个数据集在的前三个属性在三维空间中绘制出来。

    实现过程

    (1)准备数据

    这里直接导入sklearn库里的数据集就可以

    def loadData():
        iris = datasets.load_iris()
        #n_samples,n_features=iris.data.shape
        #print("Number of sample:",n_samples)  
        #print("Number of feature",n_features)
        data = iris.data
        label = iris.target
        data,label = normalization(data,label)
        return data,label

    这里为了方便训练我对原数据集做了小小的调整,这个调整不调整都可以,看心情。

    (2)定义模型

    这里定义了一个添加层的函数,参数分别为(输入数据,输入数据大小,输出结果大小,激活函数)。这里激活函数默认是None。我选择的是softmax作为激活函数

    def add_layer(inputs, in_size, out_size, activation_function=None,):
        Weights = tf.Variable(tf.random_normal([in_size, out_size]))
        biases = tf.Variable(tf.zeros([1, out_size]) + 0.1,)
        Wx_plus_b = tf.matmul(inputs, Weights) + biases
        if activation_function is None:
            outputs = Wx_plus_b
        else:
            outputs = activation_function(Wx_plus_b,)
        return outputs

    接下来定义神经网络的图结构

    xs = tf.placeholder(tf.float32,[None,4])
    ys = tf.placeholder(tf.float32,[None,3])
    
    y_ = add_layer(xs,4,3, activation_function=tf.nn.softmax)

    损失函数与优化器分别选择交叉熵和梯度下降优化器

    loss = tf.reduce_mean(-tf.reduce_sum(ys * tf.log(y_),reduction_indices=[1])) 
    
    train_step = tf.train.GradientDescentOptimizer(0.5).minimize(loss)

    (3)训练模型

    这里使用了sklearn中的 train_test_split 将数据集分为测试和训练集,训练集包含120组数据,测试集包含30组数据。

    train_data,test_data,train_label,test_label = train_test_split(data,label,test_size = 0.2)

    开始训练模型

    sess = tf.Session()
    sess.run(tf.initialize_all_variables())
    
    for i in range(50):
        sess.run(train_step,feed_dict={xs:train_data,ys:train_label})
        if i % 5 ==0:
             print(compute_accuracy(test_data, test_label))

    这里用到一个计算准确率的函数 compute_accuracy 

    def compute_accuracy(v_xs, v_ys):
        global y_
        y_pre = sess.run(y_, feed_dict={xs: v_xs})
        correct_prediction = tf.equal(tf.argmax(y_pre,1), tf.argmax(v_ys,1))
        accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
        result = sess.run(accuracy, feed_dict={xs: v_xs, ys: v_ys})
        return result

    (4)测试模型

           

    可以看到准确率还是比较让人满意的。参考代码下载https://github.com/yaoxunji/tensorflow/tree/master/2

    才疏学浅,若有不足,还望指正,万分感谢。

    展开全文
  • 图像,分类数据集的介绍

    千次阅读 2018-09-18 17:59:59
    第5章图像分类数据集 在我们实际进入到代码编写阶段来构建分类器之前,我们首先回顾下在本书中用到的数据集。一些数据集可理想的获得大于95%的准确率,另一些则还在开放研究阶段,还有一些是图像分类竞赛的部分...

    5图像分类的数据集

    在我们实际进入到代码编写阶段来构建分类器之前,我们首先回顾下在本书中用到的数据集。一些数据集可理想的获得大于95%的准确率,另一些则还在开放研究阶段,还有一些是图像分类竞赛的部分数据集。

    现在就对这些数据集进行回顾是很重要的,这样我们就可以在以后的章节中对我们在使用这些数据时可能遇到的挑战有一个高级的理解。

    1         MNIST

     

    图1 MNIST数据集的一个样例

    MNIST数据集是计算机视觉和机器学习文献中最受研究的数据集之一。这个数据集的目标是正确的分类手写数字0-9。在许多例子中,这个数据集是作为基准(benchmark),用于机器学习排名的基准。实际上,MNIST数据集用在深度学习的训练神经网络模型和其它语言中的“Hello World”示例是一样的。

    MNIST本身包含60000张训练图片和10000张测试图片。每张图片是784维的特征向量,即对应于图像的28*28的灰阶像素强度。这个像素值是[0, 255]之间的无符号整数。所有数字放置在前景白色背景黑色的区域。

    我们主要在Starter Bundle的早期章节中使用这个数据集用于进入神经网络的学习。

    2         Animals:Dogs, Cats, Pandas

     

    图2 三分类动物集的例子

    这个数据集的目的是正确的分类包含猫、狗、大熊猫的图像。每个类别包含1000张图片,总共3000张图片,这个数据集是另一个“入门”数据集,可以在CPU或GPU上快速的训练深度学习模型且获得好的精确度。其中,猫和狗图像来自Kaggle的Cats vs.Dogs竞赛,大熊猫图像节选自ImageNet数据集。

    在第10章我们用这个数据集来示例说明,使用图像的像素作为特征向量是如何不能获得高质量的机器学习模型的,除非我们利用CNN。

    这个数据集仅用在Starter Bundle中。

    3         CIFAR-10

     

    图3 来自10类CIFAR-10数据集的例子

    就像MNIST,CIFAR-10是在计算机视觉和机器学习文献中的另一个标准的基准数据集。CIFAR-10包含60000张特征向量维数为3072的32*32*3(RGB)的图像。

    如图3所示,CIFAR-10数据集包含图示中的10个类别。当我们很容易的在MNIST上获得大于97%的分类正确率,但在CIFAR-10上会有些难度(在CIFAR-100上难度更大)。挑战主要来自对象出现方式的显示差异。

    尽管是个小的数据集,但是CIFAR-10仍然是新的CNN架构的基准测试集。我们将在Starter Bundle和Practitioner Bundle中使用CIFAR-10。

    4         SMILES

     

    图4 SMILES数据集的例子

    SIMILES数据集包含要么笑要么不笑的人脸图像,数据集中总共有13165张灰阶图像,大小为32*32。

    图像是围绕人脸的32*32大小,即让我们设计出只专注于微笑识别的机器学习算法。计算机视觉预处理与机器学习(尤其是在基准数据集中)脱钩是一大常见趋势,当我们回顾常见的基准数据集时将看到。在一些例子中,假设一个机器学习研究者在应用他们自己的机器学习算法之前,有足够的计算机视觉知识来正确的对一组图像数据集进行预处理,是不公平的。

    但是,这种趋势正在快速改变,任何有兴趣将机器学习应用于计算机视觉问题的从业者都被认为至少拥有计算机视觉方面的基本背景。这一趋势在未来还会继续,所以如果你打算在计算机视觉的深度学习方面更加深入的学习,一定要用一点计算机视觉来补充你的教育,即使这只是基础知识。

    如果要提高计算机视觉知识,见文档《Adrian Rosebrock - Practical Python and OpenCV, 3rd Edition + Case studies》。

    5         Kaggle:Dags vs. Cats

     

    图5 来自猫狗Kaggle竞赛的例子

    这个数据集是Kaggle竞赛的一部分,专门用于正确的分类包含猫和狗的图像。总共25000张具有不同分辨率的图像提供给算法使用。

    如何决定预先处理你的图像会导致不同的性能水平,再次证明计算机视觉和图像处理基础的背景将会在学习深度学习中发挥很大的作用。

    我们将在Practitioner Bundle中的AlexNet网络中使用该数据集作为例子。

    6         Flowers-17

    Flowers-17数据集是17个种类,每个种类包含80张图像。这个数据集的目标是在给定输入图像时,正确的预测flower的种类。Flowers-17可认为是一个有挑战的数据集,由于缩放、视点角度、背景密集、亮度变化和类内差异等变化因素。此外,每个类只有80张图像,这在训练深度学习模型而避免过拟合也是一个挑战。

     

    图6 三个类别的示例

    作为经验法则,建议在训练深度神经网络时,每个类别至少1000-5000张图像。我们将在Practitioner Bundle中研究Flowers-17数据集,利用特征提取(feature extraction)和微调(fine-tuning)等转移学习方法来提高分类性能。

    7         CALTECH-101

    2004年,李飞飞介绍的CALTECH-101数据集,该数据集作为目标检测的流行的基准数据集。通常用于目标检测(如预测图像中特定对象的包围框的(x,y)坐标),我们也可以用CALTECH-101来研究深度学习。

    CALTECH-101具有极大的类别失衡,使得它可以用于类别失衡算法方面的研究。

    之前的图像分类方法在CALTECH-101上的精确度在35%-65%之间。但是就像我们在Practitioner Bundle中指出的,我们可以利用深度学习用于图像分类来达到99%的分类正确率。

    8         Tiny ImageNet 200

    斯坦福大学优秀的cs231n: Convolutional Neural Networks for Visual Recognition class课程为学生组织了一个类似于ImageNet挑战的图像分类挑战,但范围更小。本数据集共有200个图像类,其中500张图像用于训练,50张图像用于验证,50张图像用于每类测试。每张图像被预处理且裁剪成64*64*3像素大小,使学生更容易的关注与深度学习技术而不是计算机视觉预处理功能上。

    但是,就像我们在Practitioner Bundle中指出的,这个裁剪使得问题变得更难一些,因为它使得一些重要的、有鉴别能力的信息在预处理任务中被裁剪掉了。也就是说,我将在这个数据集上示例如何训练VGGNet、GooLenet和ResNet且在排行榜中获得较高排名。

    9         Adience

     

    图 7 用于年龄和性别预测的Adience数据集的例子

    Adience数据集用于促进年龄和性别识别的研究。总共图像26580张年龄分布在0-60之间。这个数据集的目标是正确的预测年龄和性别。我们将在ImageNet Bundle中进一步(构建自己的年龄和性别预测系统)讨论Adience数据集。

    10    ImageNet

    在计算机视觉和深度学习社区中,你可能对ImageNet是什么或不是什么感到一点混淆。

    10.1          ImageNet是什么?

    ImageNet实际上是一个项目,旨在根据一组定义的单词和短语,将图像标记并分类到将近2.2万个类别中。

    截止到该书此时,项目中有大概1400万张图像。为了管理如此多的数据,采用WordNet层次管理,在WordNet中的每个有意义的单词或短语称为同义词集(synet)。在InageNet中,图像依据这些synet组织,目标是每个synet包含1000+的图像。

    10.2          ILSVRC

    在计算机视觉和深度学习背景下,当人们谈论ImageNet时,很可能他们谈到的是ImageNet Large Scale Visual Recognition Challenge或者简写的ILSVRC。

    在这个挑战中图像分类的目标是训练一个模型,使用大概120万张图像用于训练,50000张用于验证,100000张用于测试,能够将图像分类到1000个不同的类别中。这1000个类别代表了我们日常生活中遇到的目标类别,如不同种类的狗、猫,不同的车辆等等。你可以看到整个目标类别在http://pyimg.co/x1ler

    在图像分类方面,ImageNet挑战是用于计算机视觉分类算法的实际挑战,自2012年以来,这项挑战的排行榜一直被CNNs和深度学习技术占据。

    在ImageNet Bundle中,我将在这个著名的数据集上从头演示如何训练重要的网络结构(AlexNet,SqueezeNet,VGGNet,GoogLeNet,ResNet),允许你复制你在相关研究论文中看到的最新的研究成果。

    11    Kaggle: Facial Expression Recognition Challenge

     

    图8 Kaggle中FER的例子

    Kaggle的另一项挑战,Facial Expression Recognition Challenge(FER)(面部表情识别挑战)的目标是仅从他们的面部照片就能正确的识别出一个人正在经历的面部表情。在FER中提供了35888张图像,目标是将给定的面部表情分类到下述的7种类别中:

    1. Angry

    2. Disgust (sometimes grouped in with “Fear” due to class imbalance)

    3. Fear

    4. Happy

    5. Sad

    6. Surprise

    7. Neutral

    我将在ImageNet Bundle中演示如何使用这个数据集用于表情识别。

    12    Indoor CVPR

    室内场景识别(Indoor Scene Recognition)数据集,包含大量室内场景,包括商店、房屋、休闲空间、工作场所和公共空间。这个数据集的目标是训练一个正确的能识别每一个场景的模型。但是,代替使用这个数据集的原始作用,我们在ImageNet Bundle中使用它来自动的检测和修正图像方向。

    13    Standard Cars

     

    图9 Cars数据集的例子

    这个Cars数据集包括196种汽车种类的16185张图像。你可以根据车辆制造、型号、甚至是制造年份,以任何你想要的方式切片和扫描这个数据集。尽管每个类别有较少的图像(具有较高的类别失衡),但是我将演示在标记车辆的制造型号时如何利用CNNs来获得>95%的分类正确率。

     

     

     

                          

    展开全文
  • PyTorch做神经网络MINIST数据集多分类

    千次阅读 2019-02-27 14:36:16
    这篇文章我们一起学习一下如何使用PyTorch搭建神经网络训练分类模型,这里我们用的数据集是Yann LeCun的MINIST数据集。首先我们来看看需要哪些python库: import torch import torch.nn as nn import torch.nn....
  • 垃圾分类数据集(垃圾图片数据集)

    万次阅读 多人点赞 2019-07-18 09:58:37
    为了响应垃圾分类的热点问题,抽空收集了一些垃圾的图片。进行垃圾分类的算法预测与分析(模型基本上大家可以尝试采用CNN) 图像的垃圾分类数据描述如下: 1.玻璃瓶 2.废纸箱 ...
  • 关于文本分类(情感分析)的英文数据集汇总 20 Newsgroups数据集: The 20 Newsgroups data set is a collection of approximately 20,000 newsgroup documents, partitioned (nearly) evenly across 20 different ...
  • 垃圾分类图片数据集分享-约10w张数据集

    万次阅读 多人点赞 2020-08-12 11:58:34
    最近在做一个相关项目,从网上整理了许许多的有关于垃圾图片的数据集,几万张图片应该是有的。种类也比较全,找的时候发现很在也在找,本着共享的精神把我这段时间收集的数据集分享出来。 3.数据集构成 目前收集...
  • 垃圾分类数据集

    千次阅读 多人点赞 2020-04-07 13:08:05
    训练集的制作是一件成本很高的事情,下面是一份包括4大类40个小类的垃圾数据集
  • 文章目录交通标志、信号灯相关的数据集1. 国内数据集1. Chinese Traffic Sign Database (好像是长沙理工大学的)2. Tsinghua-Tencent 100K Tutorial(信号标志,没有灯的)3. 一个游戏中的交通标志数据集;4. 滴滴...
  • Keras之DNN:基于Keras(sigmoid+linear+mse+predict)利用DNN实现回归预测——DIY多分类数据集&预测新数据点 目录 输出结果 实现代码 输出结果 实现代码 # coding:utf-8 Xa=[] Xb=...
  • 聚类、分类所用数据集

    热门讨论 2012-09-06 09:55:35
    做聚类、分类时很经典的测试数据集,可以很好的检测你所设计的算法。我所上传的数据集格式是.mat格式,用load命令就可以加载。
  • 对isir数据集进行分类,各选取三种花的25个样本作为训练数据,其余作为测试数据,训练几次,准确率可以达到98%左右
  • 引言根据自身需要制作遥感影像数据还是很具有现实意义: 第一,高分辨率遥感影像数据集目前整体上是缺乏的,主流的有UC-Merced dataset,WHU-RS dataset,RSSCN7 dataset以及2017年由武汉大学制作的目前最大包括10000...
  • 遥感图像场景分类数据集

    千次阅读 2019-06-26 21:04:03
    遥感图像场景分类数据集 1. 简介 数据集包含 45 个典型场景类别,训练集包含 177409 张图像,验证集包含 19712 张图像,初赛测试集包含 89233 张图像,详细的类别名称和对应的类别 id 见 ClsName2id.txt。 2. 数据集...
  • PyTorch创建自己的图像分类数据集

    千次阅读 多人点赞 2019-09-05 09:19:32
    制作个人图像分类数据集过程中,查阅资料发现几个问题,在解决的过程中总结! 个人认为这是很通俗易懂详细的过程了 制作个人分类用数据集具体步骤如下: 1、将个人收集的图片归到一个文件夹内如下图: 我个人做实验...
  • 这个CNN工具箱只用改一两个地方就可以对自己的数据集分类了 比github上的deeplearning的工具箱里的CNN改动要简单
  • 文本分类数据集汇总

    千次阅读 多人点赞 2020-07-02 15:06:24
    统计了下载到的文本分类数据集信息,汇总成表格如下(时间:2020.7.1): Dataset Classes Type Samples Best Method Performance AG News 4 Topic Train:120000 Test: 7600 XLNet Error: 4.45 Dbpedia 14 Topic Train...
  • 垃圾分类图片数据集

    万次阅读 多人点赞 2020-03-26 18:46:02
    该图片数据集是作者自己收集整理的,一共有四个大文件夹,对应着不同的垃圾类别,每个文件夹中有各自包含的垃圾名称及其图片,当前数据集一共有246种垃圾,共包含图片80961张,大家如果有相关研究需要可以自行下载,...
  • 视频分类数据集介绍

    万次阅读 2018-09-10 16:34:20
    视频分类数据集   在视频分类项目中,有很经典的公开数据集,目前主要的数据集如列表所示:   重点介绍三个中等规模的数据集。 1. UCF101 动作识别数据集,从youtube收集而得,共包含101类动作。其中每...
  • 搜狐新闻文本分类数据集

    千次阅读 2019-05-19 23:54:39
    搜狐新闻文本分类数据集 数据集:https://pan.baidu.com/s/1V6o20temK2v3j-bo16x94g 提取码:fech
  • 红外图像数据集

    万次阅读 多人点赞 2019-12-30 15:46:38
    介绍一些常用的红外图像数据集 1、KAIST 1.1、简要介绍 用于行人检测任务 有四种标签:person(好分辨);people(难分辨);cyclist(骑车的人);person?(人工不能分辨)。 共计95,328个可见光-红外图像对...
  • 凯斯西储大学轴承数据处理+自制CNN数据集

    万次阅读 热门讨论 2019-05-29 11:25:34
    对于凯斯西储大学轴承数据的下载,现在网上随便一个帖子都可以下载到。 在下载数据的时候,发现里面分了正常数据、驱动端、风扇端等类别,然后在具体的某一类,比如驱动端里面又区分了不同类别的故障数据。具体可以...
  • 很多人入门tensorflow时,都会做mnist,cifar10的分类实例,但无法用自己的训练分类,本教程用tfhub工具完成图像分类的训练和测试。1. 安装tensorflow和tfhub$ pip install "tensorflow>=1.7.0"...
  • 场景分类数据集

    千次阅读 2019-04-01 21:29:44
    其中前2个是最常用的遥感图像场景分类数据集,基本上每篇文章都用这2个数据集来验证分类精度。   最新的2个大数据集 6. AID Data Set 图像像素大小为600*600,总包含30类场景图像,每一类大概220-420张,...
  • 一、实验内容 ...本次实验目的是用Bp神经网络对iris数据集进行分类,并进行分析。 二、实验过程 1.将数据集加载到工作区:load iris.dat; 2.数据预处理 (1)将原始iris数据集随机抽取118行作为训练数...
  • 细粒度分类数据集汇总

    千次阅读 2020-01-05 19:52:17
    CUB-200-2011 鸟类数据集数据集地址:http://www.vision.caltech.edu/visipedia/CUB-200-2011.html Caltech-UCSD Birds-200-2011 (CUB-200-2011) 是 CUB-200 dataset 的一个扩充版本,每个类的图像数量大约增加两...
  • 手把手教你用tensorflow2.3训练自己的分类数据集

    千次阅读 多人点赞 2021-06-16 18:37:34
    2.x的api中对keras进行了合并,大家只需要安装tensorflow就可以使用里面封装好的keras,利用keras可以快速地加载数据集和构建模型,下面我们直接来看以下通过tensorflow2.3训练自己的分类数据集吧。 注:本文主要...
  • 视频分类数据集

    千次阅读 2017-10-08 18:24:19
    近年来为推动视频分类的研究,陆续发布了相关的视频数据集。小型标注良好的数据集如KTH,Hollywood2,Weizmann;中型的数据集如UCF101,Thumos’14和HMDB51,这些数据集超过了50类行为类别;大型数据集如Sports-1M,...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 477,570
精华内容 191,028
关键字:

多分类数据集