精华内容
下载资源
问答
  • 分类数据标签增加噪声,输入数据和噪声比例,输出带有噪声数据集,里面附带一个分类数据集
  • 单通道噪声数据集

    2019-02-13 21:49:02
    但通道噪声数据集,wav格式16k采样率,包括经典的NOIZEUS与noise_92
  • noise92噪声数据集官方下载地址 http://spib.linse.ufsc.br/noise.html

    noise92噪声数据集官方下载地址
    http://spib.linse.ufsc.br/noise.html

    展开全文
  • 单声道噪声数据集

    2019-01-23 11:21:44
    7个标准纯噪声数据,文件格式为.wav,其中包括babble、f16、leopard、m109、pink、volvo、white。
  • DNC 噪声分类数据集 (要被更新)
  • 用python给数据加上高斯噪声

    万次阅读 多人点赞 2019-06-27 16:49:08
    一开始用MATLAB给数据加噪声很简单,就一句话: % 给数据加指定SNR的高斯噪声 signal_noise = awgn(signal,SNR,'measured'); 但用python实现加噪声的时候遇到一个小问题,也是由于本人愚钝的原因吧。 1. 回顾MATLAB...


    一开始用MATLAB给数据加噪声很简单,就一句话:

    % 给数据加指定SNR的高斯噪声
    signal_noise = awgn(signal,SNR,'measured');
    

    但用python实现加噪声的时候遇到一个小问题,也是由于本人愚钝的原因吧。

    1. 回顾MATLAB中的加高斯噪声

    常用方法:

    % 给数据加指定SNR的高斯噪声
    signal_noise = awgn(signal,SNR,'measured');
    
    Ps=sum(sum((signal-mean(mean(signal))).^2));     	 %signal power
    Pn=sum(sum((signal-signal_noise).^2));            	%noise power
    snr=10*log10(Ps/Pn);								%验证所加的噪声
    

    这里的signal 是一个二维的数据矩阵,所以后面的操作都是矩阵的操作。MATLAB中运行完全没有问题。

    2. Python中利用numpy给数据加噪声

    本文方法:

    # 给数据加指定SNR的高斯噪声
    SNR = 5
    noise = np.random.randn(signal.shape[0],signal.shape[1]) 	#产生N(0,1)噪声数据
    noise = noise-np.mean(noise) 								#均值为0
    signal_power = np.linalg.norm( signal - signal.mean() )**2 / signal.size	#此处是信号的std**2
    noise_variance = signal_power/np.power(10,(SNR/10))         #此处是噪声的std**2
    noise = (np.sqrt(noise_variance) / np.std(noise) )*noise    ##此处是噪声的std**2
    signal_noise = noise + signal
    
    Ps = ( np.linalg.norm(signal - signal.mean()) )**2          #signal power
    Pn = ( np.linalg.norm(signal - signal_noise ) )**2          #noise power
    snr = 10*np.log10(Ps/Pn)
    

    有很多人在产生给定SNR的高斯噪声时,用的是:

    signal_power = np.linalg.norm( signal )**2
    noise_variance = signal_power/np.power(10,(SNR/10))
    noise = np.sqrt(noise_variance)*noise + 0
    

    这里实际上是有问题的,我一开始也没发现。因为产生分布为N(mean,std**2)的噪声我们用的公式是:
    noise = std * N(0,1) + mean
    换句话说,我们需要计算噪声的std 以及 mean 。计算噪声的 std 时,需要先计算信号的 std,然后利用SNR来求出噪声的 std ,从上面的代码中能发现,signal_power 代表的是信号的std^2signal.size 的乘积,多乘了一个signal.size 那结果肯定是有问题的。

    展开全文
  • 图像数据集噪声对卷积网络分类的影响,张雨露,帅立国,在图像分类任务中准备数据集时,数据噪声的干扰会对后续的分类模型产生不利影响,噪声越严重就越难以得到合理的分类模型。为了评
  • import os import cv2 import numpy as np ... proportion的值表示加入噪声的量,可根据需要自行调整 return: img_noise ''' height, width = noise_img.shape[0], noise_img.shape[1]#获取高度宽度像素值 .
    
    import os
    import cv2
    import numpy as np
    import random
    import re
    
    def sp_noise(noise_img, proportion):
        '''
        添加椒盐噪声
        proportion的值表示加入噪声的量,可根据需要自行调整
        return: img_noise
        '''
        height, width = noise_img.shape[0], noise_img.shape[1]#获取高度宽度像素值
        num = int(height * width * proportion) #一个准备加入多少噪声小点
        for i in range(num):
            w = random.randint(0, width - 1)
            h = random.randint(0, height - 1)
            if random.randint(0, 1) == 0:
                noise_img[h, w] = 0
            else:
                noise_img[h, w] = 255
        return noise_img
    
    
    def gaussian_noise(img, mean, sigma):
        '''
        此函数用将产生的高斯噪声加到图片上
        传入:
            img   :  原图
            mean  :  均值
            sigma :  标准差
        返回:
            gaussian_out : 噪声处理后的图片
        '''
        if img != '.DS_Store':
        # 将图片灰度标准化
            img = img / 255
        # 产生高斯 noise
            noise = np.random.normal(mean, sigma, img.shape)
        # 将噪声和图片叠加
            gaussian_out = img + noise
        # 将超过 1 的置 1,低于 0 的置 0
            gaussian_out = np.clip(gaussian_out, 0, 1)
        # 将图片灰度范围的恢复为 0-255
            gaussian_out = np.uint8(gaussian_out*255)
        # 将噪声范围搞为 0-255
        # noise = np.uint8(noise*255)
            return gaussian_out# 这里也会返回噪声,注意返回值
    
    def random_noise(image,noise_num):
        '''
        添加随机噪点(实际上就是随机在图像上将像素点的灰度值变为255即白色)
        param image: 需要加噪的图片
        param noise_num: 添加的噪音点数目
        return: img_noise
        '''
        # 参数image:,noise_num:
        img_noise = image
        # cv2.imshow("src", img)
        rows, cols, chn = img_noise.shape
        # 加噪声
        for i in range(noise_num):
            x = np.random.randint(0, rows)#随机生成指定范围的整数
            y = np.random.randint(0, cols)
            img_noise[x, y, :] = 255
        return img_noise
    
    def convert(input_dir, output_dir):
        for filename in os.listdir(input_dir):
            path = input_dir + "/" + filename # 获取文件路径
            print("doing... ", path)
            noise_img = cv2.imread(path)#读取图片
            #img_noise = gaussian_noise(noise_img, 0, 0.11) # 高斯噪声
            #img_noise = sp_noise(noise_img,0.025)# 椒盐噪声
            img_noise  = random_noise(noise_img,100)# 随机噪声
            #对每一张图片进行重命名
            rules = re.compile(r'(.*?)_0.jpg') #截取(.*?)部分文件名
            newfilename = re.findall(rules, str(filename))[0]
            cv2.imwrite(output_dir + '/' + newfilename + '_' + str(3) + '.jpg', img_noise )
    
    if __name__ == '__main__':
        input_dir = "/path/noise/dataset1"    # 输入数据文件夹
        output_dir = "/path/noise/dataset2" # 输出数据文件夹
        convert(input_dir, output_dir)
    
    
    
    

    文件重命名前后对比:
    输入数据:
    重命名前
    输出数据:
    在这里插入图片描述

    展开全文
  • Noisex-92噪音数据集

    热门讨论 2014-05-28 21:34:43
    很多人都找这个 我上传一下吧 用matlab做语音处理 的噪音
  • 在给定噪声率的情况下为数据集生成噪声标签,并使用重新标记算法对这些噪声标签进行重新标记 f1.test.py为all_tickets.csv数据集生成嘈杂的标签,使用“ body”作为特征,使用“ urgency”和“ ticket_type”作为...
  • sklearn自带的数据集以及生成数据集自带的小数据集鸢尾花数据集:load_iris():用于分类任务的数据集手写数字数据集load_digits()乳腺癌数据集load-barest-cancer()糖尿病数据集波士顿房价数据集体能训练数据集...

    一、UCI数据集介绍

    UCI数据集是一个常用的机器学习标准测试数据集,是加州大学欧文分校(University of CaliforniaIrvine)提出的用于机器学习的数据库。机器学习算法的测试大多采用的便是UCI数据集了,其重要之处在于“标准”二字,新编的机器学习程序可以采用UCI数据集进行测试,类似的机器学习算法也可以一较高下。

    UCI机器学习库:http://archive.ics.uci.edu/ml/datasets.php

    二、 sklearn自带的小数据集

    https://rosefun.blog.csdn.net/article/details/104407193
    sklearn 的数据集种类

    1. 自带的小数据集(packaged dataset):sklearn.datasets.load_
    2. 可在线下载的数据集(Downloaded Dataset):sklearn.datasets.fetch_
    3. 计算机生成的数据集(Generated Dataset):sklearn.datasets.make_
    4. svmlight/libsvm格式的数据集:sklearn.datasets.load_svmlight_file(…)
      从买了data.org在线下载获取的数集:sklearn.datasets.fetch_mldata(…)
    推荐读者阅读网站:
    
        (w3cschool) https://www.w3cschool.cn/doc_scikit_learn/scikit_learn-modules-generated-sklearn-datasets-load_digits.html
        (scikit-learn (sklearn) 官方文档中文版)https://sklearn.apachecn.org/docs/0.21.3/47.html
        Scikit-learn英文官网https://scikit-learn.org/stable/
    

    其中的自带的小的数据集为:sklearn.datasets.load_

    在这里插入图片描述

    sklearn 自带数据集的常规使用

    1. keys 查看数据内容

    以手写数据集 load_digits() 为例,

    from sklearn import datasets
    
    digits = datasets.load_digits()
    keys = digits.keys()
    print(keys)
    

    Output:

    dict_keys(['data', 'target', 'target_names', 'images', 'DESCR'])
    

    digits 数据集的属性介绍

    属性
    数据集介绍DESCR
    样本数据data
    标签数据target
    标签名称target_names
    图像数据images

    注:
    1.data,target 均为 numpy.ndarray 数组
    2.data, target, target_name 是 sklearn 自带数据集通用的属性

    通用示例:

    # 导入sklearn自带数据集
    from sklearn import datasets 
    
    digits = datasets.load_digits()# 加载手写数字数据集
    feature = digits.data# 创建特征矩阵
    target = digits.target# 创建目标向量
    

    鸢尾花数据集:load_iris():用于分类任务的数据集

    数据介绍:

    1. 一般用于做分类测试
    2. 有150个数据集,共分为3类,每类50个样本。每个样本有4个特征。
    3. 每条记录都有 4 项特征:包含4个特征(Sepal.Length(花萼长度)、Sepal.Width(花萼宽度)、Petal.Length(花瓣长度)、Petal.Width(花瓣宽度)),特征值都为正浮点数,单位为厘米。
    4. 可以通过这4个特征预测鸢尾花卉属于(iris-setosa(山鸢尾), iris-versicolour(杂色鸢尾), iris-virginica(维吉尼亚鸢尾))中的哪一品种。

    属性介绍:见代码注释

    这些数据集都可以在官网上查到,以鸢尾花为例,可以在官网上找到demo,
    https://scikit-learn.org/stable/auto_examples/datasets/plot_iris_dataset.html

    在这里插入图片描述

    from sklearn.datasets import load_iris#加载数据集
    import numpy as np
    
    iris=load_iris()
    iris.keys()  #dict_keys(['target', 'DESCR', 'data', 'target_names', 'feature_names'])#数据的条数和维数
    n_samples,n_features=iris.data.shape
    print("Number of sample:",n_samples)  #Number of sample: 150
    print("Number of feature",n_features)  #Number of feature 4#第一个样例
    print(iris.data[0])      #[ 5.1  3.5  1.4  0.2]
    print(iris.data.shape)    #(150, 4)
    print(iris.target.shape)  #(150,)
    print(iris.target)"""
      [0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0   0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1   1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2   2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2   2 2]
    """
    
    print(iris.target_names)  #['setosa' 'versicolor' 'virginica']
    np.bincount(iris.target)  #[50 50 50]
    
    import matplotlib.pyplot as plt#以第3个索引为划分依据,x_index的值可以为0,1,2,3
    x_index=3
    color=['blue','red','green']
    for label,color in zip(range(len(iris.target_names)),color):
        plt.hist(iris.data[iris.target==label,x_index],label=iris.target_names[label],color=color)
    
    plt.xlabel(iris.feature_names[x_index])
    plt.legend(loc="Upper right")
    plt.show()
    #画散点图,第一维的数据作为x轴和第二维的数据作为y轴
    x_index=0
    y_index=1
    colors=['blue','red','green']
    for label,color in zip(range(len(iris.target_names)),colors):
        plt.scatter(iris.data[iris.target==label,x_index],
                    iris.data[iris.target==label,y_index],
                    label=iris.target_names[label],
                    c=color)
    plt.xlabel(iris.feature_names[x_index])
    plt.ylabel(iris.feature_names[y_index])
    plt.legend(loc='upper left')
    plt.show()
    

    在这里插入图片描述

    在这里插入图片描述

    手写数字数据集load_digits()

    手写数字数据集load_digits():用于多分类任务的数据集

    数据介绍:

    手写数字数据集:load_digits():用于分类任务或者降维任务的数据集。
    1797张样本图片,每个样本有64维特征(8*8像素的图像)和一个[0, 9]整数的标签
    

    属性介绍:
    见代码注释

    from sklearn.datasets import load_digits
    digits=load_digits()
    print(digits.data.shape)
    import matplotlib.pyplot as plt
    plt.gray()
    plt.matshow(digits.images[0])
    plt.show()
    
    from sklearn.datasets import load_digits
    digits=load_digits()
    digits.keys()
    n_samples,n_features=digits.data.shape
    print((n_samples,n_features))
    
    print(digits.data.shape)
    print(digits.images.shape)
    
    import numpy as np
    print(np.all(digits.images.reshape((1797,64))==digits.data))
    
    fig=plt.figure(figsize=(6,6))
    fig.subplots_adjust(left=0,right=1,bottom=0,top=1,hspace=0.05,wspace=0.05)
    #绘制数字:每张图像8*8像素点
    for i in range(64):
        ax=fig.add_subplot(8,8,i+1,xticks=[],yticks=[])
        ax.imshow(digits.images[i],cmap=plt.cm.binary,interpolation='nearest')
        #用目标值标记图像
        ax.text(0,7,str(digits.target[i]))
    plt.show()
    

    在这里插入图片描述

    在这里插入图片描述

    乳腺癌数据集load-barest-cancer()

    乳腺癌数据集load-barest-cancer():简单经典的用于二分类任务的数据集

    官网:https://scikit-learn.org/stable/modules/generated/sklearn.datasets.load_breast_cancer.html#sklearn.datasets.load_breast_cancer
    在这里插入图片描述

    糖尿病数据集

    糖尿病数据集:load-diabetes():经典的用于回归认为的数据集,值得注意的是,这10个特征中的每个特征都已经被处理成0均值,方差归一化的特征值,

    官网:https://scikit-learn.org/stable/modules/generated/sklearn.datasets.load_diabetes.html#sklearn.datasets.load_diabetes

    在这里插入图片描述

    波士顿房价数据集

    数据介绍:

    该数据集是一个回归问题。每个类的观察值数量是均等的,共有 506 个观察,13 个输入变量和1个输出变量。
    每条数据包含房屋以及房屋周围的详细信息。其中包含城镇犯罪率,一氧化氮浓度,住宅平均房间数,到中心区域的加权距离以及自住房平均房价等等。
    

    波士顿房价数据集:load-boston():经典的用于回归任务的数据集

    体能训练数据集:load-linnerud():经典的用于多变量回归任务的数据集,其内部包含两个小数据集:Excise是对3个训练变量的20次观测(体重,腰围,脉搏),physiological是对3个生理学变量的20次观测(引体向上,仰卧起坐,立定跳远)

    svmlight/libsvm的每一行样本的存放格式:

     <label><feature-id>:<feature-value> <feature-id>:<feature-value> ....
    

    这种格式比较适合用来存放稀疏数据,在sklearn中,用scipy sparse CSR矩阵来存放X,用numpy数组来存放Y

    from sklearn.datasets import load_svmlight_file
    x_train,y_train=load_svmlight_file("/path/to/train_dataset.txt","")#如果要加在多个数据的时候,可以用逗号隔开
    

    体能训练数据集:

    体能训练数据集:load-linnerud():经典的用于多变量回归任务的数据集。

    官网:https://scikit-learn.org/stable/modules/generated/sklearn.datasets.load_linnerud.html#sklearn.datasets.load_linnerud

    在这里插入图片描述

    生成数据集

    生成数据集:可以用来分类任务,可以用来回归任务,可以用来聚类任务,用于流形学习的,用于因子分解任务的

    用于分类任务和聚类任务的:这些函数产生样本特征向量矩阵以及对应的类别标签集合

    make_blobs:多类单标签数据集,为每个类分配一个或多个正太分布的点集

    make_classification:多类单标签数据集,为每个类分配一个或多个正太分布的点集,提供了为数据添加噪声的方式,包括维度相关性,无效特征以及冗余特征等

    make_gaussian-quantiles:将一个单高斯分布的点集划分为两个数量均等的点集,作为两类

    make_hastie-10-2:产生一个相似的二元分类数据集,有10个维度

    make_circle和make_moom产生二维二元分类数据集来测试某些算法的性能,可以为数据集添加噪声,可以为二元分类器产生一些球形判决界面的数据

    #生成多类单标签数据集import numpy as np
    import matplotlib.pyplot as plt
    from sklearn.datasets.samples_generator import make_blobs
    center=[[1,1],[-1,-1],[1,-1]]
    cluster_std=0.3
    X,labels=make_blobs(n_samples=200,centers=center,n_features=2,
                        cluster_std=cluster_std,random_state=0)
    print('X.shape',X.shape)
    print("labels",set(labels))
    
    unique_lables=set(labels)
    colors=plt.cm.Spectral(np.linspace(0,1,len(unique_lables)))
    for k,col in zip(unique_lables,colors):
        x_k=X[labels==k]
        plt.plot(x_k[:,0],x_k[:,1],'o',markerfacecolor=col,markeredgecolor="k",
                 markersize=14)
    plt.title('data by make_blob()')
    plt.show()
    #生成用于分类的数据集from sklearn.datasets.samples_generator import make_classification
    X,labels=make_classification(n_samples=200,n_features=2,n_redundant=0,n_informative=2,
                                 random_state=1,n_clusters_per_class=2)
    rng=np.random.RandomState(2)
    X+=2*rng.uniform(size=X.shape)
    
    unique_lables=set(labels)
    colors=plt.cm.Spectral(np.linspace(0,1,len(unique_lables)))
    for k,col in zip(unique_lables,colors):
        x_k=X[labels==k]
        plt.plot(x_k[:,0],x_k[:,1],'o',markerfacecolor=col,markeredgecolor="k",
                 markersize=14)
    plt.title('data by make_classification()')
    plt.show()
    
    #生成球形判决界面的数据
    from sklearn.datasets.samples_generator import make_circles
    X,labels=make_circles(n_samples=200,noise=0.2,factor=0.2,random_state=1)
    print("X.shape:",X.shape)
    print("labels:",set(labels))
    
    unique_lables=set(labels)
    colors=plt.cm.Spectral(np.linspace(0,1,len(unique_lables)))
    for k,col in zip(unique_lables,colors):
        x_k=X[labels==k]
        plt.plot(x_k[:,0],x_k[:,1],'o',markerfacecolor=col,markeredgecolor="k",
                 markersize=14)
    plt.title('data by make_moons()')
    plt.show()
    

    在这里插入图片描述

    在这里插入图片描述

    在这里插入图片描述

    参考博客:

    https://blog.csdn.net/qq_42887760/article/details/101292407

    https://www.cnblogs.com/nolonely/p/6980160.html

    展开全文
  • 十种方法实现图像数据集降维

    万次阅读 多人点赞 2021-04-15 22:52:28
    本项目将依托于MNIST数据集,手把手实现图像数据集降维。
  • 不平衡数据集处理方法

    万次阅读 多人点赞 2018-11-04 12:59:50
    目录 1、不平衡(均衡)数据集 (1)不平衡数据集定义 (2)不平衡数据集举例 (3)不平衡数据集实例 ...3、将数据集划分为训练数据集和测试数据集 4、使用K折交叉验证评估模型性能 (1)K...
  • 在AI与深度学习逐渐发展成熟的趋势下,人工智能和大数据等技术开始进入了医疗领域,它们把现有的一些传统流程进行优化,大幅度提高各种流程的效率、精度、用户体验,同时也缓解了...01 医学数据集 智能医疗...
  • 在参加一个目标检测的比赛时写的一个代码,因为官方提供的数据集较小,深度学习需要的数据集也比较大,因而自己便做了一个数据离线增强,即通过翻转、旋转、加噪声等方式扩充数据集
  • 数据集】一文道尽医学图像数据集与竞赛

    万次阅读 多人点赞 2018-12-14 07:58:09
    数据集】一文道尽医学图像数据集与竞赛 在AI与深度学习逐渐发展成熟的趋势下,人工智能和大数据等技术开始进入了医疗领域,它们把现有的一些传统流程进行优化,大幅度提高各种流程的效率、精度、用户体验,同时...
  • 图像去噪数据集

    万次阅读 多人点赞 2018-08-28 14:58:02
    目前效果出色的深度去噪方法大都采用监督学习的方法,需要采集输入-输出图像对(noisy/noise-free images pairs)建立训练数据集数据集的建立是关键的任务。数据集的质量将直接决定去噪结果的质量。如何获取尽量多...
  • 深度学习开源数据集大全

    千次阅读 2019-01-01 19:48:11
    skymind.ai网站上有一份十分全面的开源数据集,涵盖自然图像数据集、面部数据集等多个领域,为方面大家找到自己需要的数据集,将skymind.ai整理的数据集编译如下:     自然图像数据集   MNIST: handwritten...
  • 1、为何要增广数据集呢? 因为我们平时自己用来训练的数据集需要自己制作。公共数据集无法满足自己的针对性需求。 2、增广的方法有哪些? 水平翻转增强,垂直翻转增强,镜像对称增强,仿射变化,旋转,高斯加噪...
  • Image数据集

    千次阅读 2019-11-23 15:36:18
    原文链接: ...一、行动数据库 20bn-Something-Something - 密集标记的视频剪辑,显示人类使用日常物品执行预定义的基本动作(Twenty Billion Neurons GmbH) 3D在线行动数据集 - 有七个行动类别(微软和南...
  • 该算法是基于噪声模型下利用最大似然估计法结合加权样本修复数据的思想构造以似然函数形式的模型评分函数,并以此度量模型相对于缺失数据集的优劣程度,通过迭代学习确定因果方向,每次迭代学习包括使用参数修复...
  • 数据集总结

    千次阅读 2019-08-29 09:34:41
    一般RGBD和深度数据集 一般视频 手,掌握,手动和手势数据库 图像,视频和形状数据库检索 对象数据库 人(静),人体姿势 人员检测和跟踪数据库(另见监控) 遥感 场景或地点分割或分...
  • CIFAR-10 数据集

    万次阅读 2019-04-23 18:00:41
    CIFAR-10 数据集简介 CIFAR-10 是由 Hinton 的学生 Alex Krizhevsky 和 Ilya Sutskever 整理的一个用于识别普适物体的小型数据集。一共包含 10 个类别的 RGB 彩色图 片:飞机( a叩lane )、汽车( automobile )、...
  • 一个可用于FUNSD(噪声很多的扫描文档)上进行表单理解的数据集。 这里的表单理解是指对表单中的文本内容进行抽取,并生成结构化数据。 数据集包含199个真实的、完全注释的、扫描的表单。 文档有很多噪声,而且各种...
  • 常用噪声库NoiseX-92DEMAND噪声库TUT声学场景 NoiseX-92 链接:https://pan.baidu.com/s/1MYfL6_PXPoOmb07LgsoouQ 提取码:zz2l 包含15种噪声: White noise Pink noise HF channel noise Speech babble Factory ...
  • datasets数据集

    千次阅读 2020-09-18 10:42:28
    datasets数据集 ​ 分享一些学习到的知识 ​ sklearn的数据集库datasets提供很多不同的数据集,主要包含以下几大类: 玩具数据集 真实世界中的数据集 样本生成器 样本图片 svmlight或libsvm格式的数据 ...
  • 关系抽取数据集介绍

    千次阅读 2020-03-05 16:55:24
    最近由于实验需要,收集整理了关系抽取方向的数据集,主要包括SemEval、Wiki80、NYT10。目前来说全监督的关系抽取任务一般在SemEval上做,远程监督的关系抽取任务一般在NYT10上做。 SemEval 数据集来源 SemEval数据...
  • 给数据增加噪声

    万次阅读 2018-05-28 19:31:05
    例如在POS-bp算法中增加噪声,优点:使输出更光滑从而提升网络的推理能力,提升泛化能力。添加样本噪声,使线条更光滑。这个地方是添加了一个正太分布均值为0,方差为0.01的1xSamLnNum的随机数矩阵。...
  • AI数据集

    千次阅读 2017-02-22 14:59:44
    数据集计算机视觉 MNIST CIFAR  ImageNet LSUN PASCAL SVHN MSCOCO Genome Faces 自然语言处理 语言模型  语义相似性 文本分类数据集 问答 阅读理解 情感分析 IR Maluuba   语音 推荐和排序系统 网络和图表  ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 81,391
精华内容 32,556
关键字:

给数据集加噪声