精华内容
下载资源
问答
  • 高维多标签分类matlab

    2020-12-30 15:19:01
    高维多标签分类matlab knn,svm,随机森林等算法 784维数据 分为10类
  • 内含有大量多标签多类别分类算法和对应的代码,包括MIML_LPT,MIMLBoost,MIMLSVM,MIMLfast,KISAR,MIMLKNN,MLKNN,DMIMLSVM,MIMLMISVM等等,部分代码含有对应的文献,学习类标分类的好资源。
  • 前言虽然不是搞分类的,但是还是看看多标签多分类的区别。为了避免自己的错误理解, 当然是选择原谅他啊…….找正规文档看哇. 以下翻译分别来自scikit-learn.org和 维基 喂鸡百科国际惯例,贴上来源:scikit-learn...

    前言

    虽然不是搞分类的,但是还是看看多标签和多分类的区别。为了避免自己的错误理解, 当然是选择原谅他啊…….找正规文档看哇. 以下翻译分别来自scikit-learn.org和 维基 喂鸡百科

    国际惯例,贴上来源:

    scikit-learn介绍

    多类分类(Multiclass classification): 表示分类任务中有多个类别, 比如对一堆水果图片分类, 它们可能是橘子、苹果、梨等. 多类分类是假设每个样本都被设置了一个且仅有一个标签: 一个水果可以是苹果或者梨, 但是同时不可能是两者

    多标签分类(Multilabel classification): 给每个样本一系列的目标标签. 可以想象成一个数据点的各属性不是相互排斥的(一个水果既是苹果又是梨就是相互排斥的), 比如一个文档相关的话题. 一个文本可能被同时认为是宗教、政治、金融或者教育相关话题.

    多输出回归(Multioutput classification): 给每个样本一系列的目标值. 可以被想象成对每个数据点预测多个属性, 比如在某个定位的风向和风速

    多输出-多分类分类(Multioutput-multiclass classification) 和 多任务分类(Multi-task classification):意味着一个单一的评估器需要处理多个联合分类任务. 这是多标签分类任务(只考虑二院分类)和多类分类任务的推广, 输出格式是2d阵列.

    每一个输出变量的标签机可以是不同的. 比如一个样本的第一输出变量可以是有限类别中是pear的概率值, 第二个输出变量可能是有限颜色中是blue或者green的概率.

    这意味着任意的支持多输出多类或者多任务分类任务的分类器, 均支持作为一种特殊情况的多标签分类任务. 多任务分类与多输出分类任务相似, 但是有不同的模型公式.

    维基介绍

    在机器学习中, 多标签分类(multi-label classification) 和与其极度相关的多输出分类(multi-output classification)是分类问题的变种, 每个实例可能会设置多个标签

    多标签分类(Multi-label classification)

    概念

    多标签分类是多类分类的一般化, 多类分类是将实例精确分类到一个或者多个类别中的单一标签问题, 在多标签问题中, 没有限制说一个实例可以被设置多少个类别.

    正规点讲就是, 多标签分类是找到一个模型将输入x映射到二值向量y中.可以将多标签问题转化成一系列的二元分类问题, 然后可以使用多个单标签分类器进行处理.

    多标签分类采用的算法

    boosting: AdaBoost.MH和AdaBoost.MR是AdaBoost的多标签数据扩展版本

    k近邻:ML-kNN是将k-NN分类器扩展到多标签数据

    决策树

    向量输出的核方法

    神经网络:BP-MLL是反向传播算法的多标签学习问题的扩展

    多类分类(Multiclass classification)

    概念

    在机器学习中, 多类(multiclass)或者多项式(multinomial)分类是将实例分配给一个而非多于两个类别的种类(将实例分类给两类中的一个称为二元分类binary classification). 很多分类算法自身支持多于两类的使用, 剩下的就是二元分类算法了, 这就可以通过很多策略去转换成多项式分类器.

    要将多类分类与多标签分类区分开, 后者是一个类别有多个标签需要被预测

    多类分类采用的算法

    二元分类问题转化

    一对多(one -vs.- rest)

    一对一(one -vs.- one)

    二元问题的扩展

    神经网络: 多层感知器就是多类问题的扩展,输出N个二值神经元就可以编程多类任务

    极限学习机(Extreme Learning Machines (ELM))

    k近邻: 最古老的非参数分类算法

    朴素贝叶斯

    决策树

    支持向量机

    层级分类

    将多类分类问题的输出空间分割为一个树. 每个父节点被多个子节点分割, 重复这个过程直到每个子节点仅仅代表一类.

    本文同步分享在 博客“风翼冰舟”(CSDN)。

    如有侵权,请联系 support@oschina.cn 删除。

    本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

    展开全文
  • 使用matlab处理分类数据多标签问题

    千次阅读 2019-01-20 22:33:40
    在使用matlab处理数据标签时, 1,首先要判断这张图片标签是否是符合规则的,对于不符合要舍去。在某些情况下,可能不能完全舍去。那么就需要,根据保留标签的特点,来存储数据。比如 使用case 语句。 2,标签可以...

    在使用matlab处理数据标签时,

    1,首先要判断这张图片标签是否是符合规则的,对于不符合要舍去。在某些情况下,可能不能完全舍去。那么就需要,根据保留标签的特点,来存储数据。比如 使用case 语句。

    2,标签可以过多或者需要融合,可以根据原始图片的特点来融合数据。

     

    展开全文
  • 用于多标签分类MATLAB / OCTAVE库 当前可用功能: 基于聚类的方法,CBMLC,HOMER,CLMLC SLEEC(?)基于集合的方法,ECC,RAkEL,RAkEL-d,fRAkEL,TREMLC,MLCEnsemble,COCOA 特征空间降维(FSDR) FSDR非监督...
  • 通过分层分区和数据相关分组进行多标签分类Matlab代码 运行main_NMFGT.m以通过随机恒定权重和与数据相关的组测试方法进行多标签分类 通过标签分区运行main_HeNMFGT.m进行多标签分类,并分别应用NMF_MLGT并合并结果...
  • 返回一个或个测试实例的估计标签。 2. 返回 k 个最近的训练实例的索引和各自的距离。 使用鸢尾花数据集的示例 加载fisheriris X = 测量值; Y = 物种; Xnew = [min(X);mean(X);max(X)]; k = 5; 公制 = '...
  • 首先利用PCA进行降维,并利用SVM对高光谱数据进行分类,数据采用印第安纳农场数据,训练样本比例可调,设计了一个GUI
  • 减少标签空间维数的多标签分类 该程序包括五种线性标签空间转换方法。 所有方法中使用的基础学习器是带有固定正则化参数的正则线性回归。 请在demo.m中查看用法。 与随机丢弃的二进制相关性(BR),主要标签空间...
  • %% 本函数的功能是根据所给分类方程,产生一组带标签的数据点(二维)% row表示需要的数据点个数;% range_x、range_y分别是数据[横纵坐标取值范围],都是 1*2 矩阵.% 分类方程形式:y = a*x^m + bfunction data = ...

    一、实验原理:略

    二、实验步骤

    1,编辑函数generate_signedData;

    %% 本函数的功能是根据所给分类方程,产生一组带标签的数据点(二维)

    % row表示需要的数据点个数;

    % range_x、range_y分别是数据[横纵坐标取值范围],都是 1*2 矩阵.

    % 分类方程形式:y = a*x^m + b

    function data = generate_signedData(row,range_x,range_y,a,m,b)

    data=zeros(row,3);

    min_x=range_x(1);

    max_x=range_x(2);

    min_y=range_y(1);

    max_y=range_y(2);

    for i=1:1:row

    %rand('seed',0); %初始化高斯随机生成器为0,这对结果的可重复性很重要

    x = min_x+(max_x-min_x)*rand(1,1);

    y = min_y+(max_y-min_y)*rand(1,1);

    sign = zeros(1,1);

    if y>(a*x^m + b)

    sign = 1;

    else

    sign = -1;

    end

    data(i,:)=[x,y,sign];

    end

    figure;

    %在图片中显示所有数据点

    for i=1:1:row

    x1 = data(i,1);

    x2 = data(i,2);

    sign = data(i,3);

    if sign == 1

    plot(x1,x2,'r+','markersize',6);

    elseif sign == -1

    plot(x1,x2,'bo','markersize',6);

    end

    hold on;

    end;

    hold off;

    grid on;

    2、调用函数,分类线:y=2x+2

    X3=generate_signedData(100,[-8,8],[-8,8],2,1,2)

    Matlab 中输出:

    X3 =

    -4.3989 -2.3998 1.0000

    -3.4066 6.8398 1.0000

    -7.1790 1.4827 1.0000

    -5.3936 5.4145 1.0000

    -5.3190 0.0352 1.0000

    7.9893 -2.3135 -1.0000

    -7.2468 -4.5814 1.0000

    -1.6346 -2.6613 -1.0000

    -4.3264 6.9779 1.0000

    2.9310 7.3938 -1.0000

    -0.9924 7.0454 1.0000

    -7.9067 1.7649 1.0000

    4.8172 -4.2723 -1.0000

    6.9195 4.2122 -1.0000

    5.2232 1.1754 -1.0000

    4.6813 -2.7353 -1.0000

    -4.4246 -3.0018 1.0000

    1.3524 5.2786 1.0000

    -3.3526 -1.5591 1.0000

    5.7929 1.8358 -1.0000

    7.8590 -4.7408 -1.0000

    5.2353 2.8138 -1.0000

    -4.0168 -0.3874 1.0000

    -1.6148 1.5910 1.0000

    4.8084 -6.3189 -1.0000

    5.1431 5.4574 -1.0000

    -2.3279 -1.1189 1.0000

    1.1558 3.2132 -1.0000

    3.8795 4.1261 -1.0000

    -1.7739 -1.1312 1.0000

    7.3015 1.1675 -1.0000

    5.5956 -3.5785 -1.0000

    1.9572 1.4138 -1.0000

    7.4155 -6.6256 -1.0000

    0.0080 0.3454 -1.0000

    -6.5573 6.4747 1.0000

    6.1502 -0.9762 -1.0000

    4.5076 -5.6246 -1.0000

    1.9171 -3.8300 -1.0000

    -0.8695 5.5040 1.0000

    -4.8607 -3.1384 1.0000

    -0.2673 -2.5950 -1.0000

    4.7758 7.7998 -1.0000

    -5.4552 -4.2099 1.0000

    3.2358 -1.9925 -1.0000

    7.5793 7.5569 -1.0000

    2.2992 5.7616 -1.0000

    -1.5699 2.1109 1.0000

    7.7638 0.9516 -1.0000

    6.9375 3.5255 -1.0000

    -0.2554 2.2245 1.0000

    6.2022 -4.8202 -1.0000

    -1.6741 7.8748 1.0000

    -1.5624 2.5417 1.0000

    6.4216 7.9261 -1.0000

    2.4506 -6.2650 -1.0000

    -7.4222 1.8895 1.0000

    1.0743 7.3914 1.0000

    3.9377 2.6003 -1.0000

    0.3730 -3.8417 -1.0000

    7.3919 0.6433 -1.0000

    -7.5157 3.1410 1.0000

    0.3155 -7.0555 -1.0000

    6.2406 -2.7168 -1.0000

    -4.3248 -6.1768 1.0000

    -3.0252 -4.3451 -1.0000

    2.4320 -6.9414 -1.0000

    -3.5931 -3.4909 1.0000

    6.0811 -0.8907 -1.0000

    4.0946 1.6527 -1.0000

    4.5323 -6.1771 -1.0000

    7.6570 5.5775 -1.0000

    -7.1897 -0.5408 1.0000

    -2.7895 2.0833 1.0000

    -4.3152 1.2782 1.0000

    1.6505 1.5981 -1.0000

    -0.8252 -7.4332 -1.0000

    0.2210 -1.4763 -1.0000

    -6.2713 -0.6420 1.0000

    -0.7859 0.8182 1.0000

    4.8865 3.2136 -1.0000

    5.9558 -7.1649 -1.0000

    -4.4851 -0.6457 1.0000

    7.3365 4.6407 -1.0000

    -0.7700 -2.6651 -1.0000

    -7.0545 3.8545 1.0000

    0.1087 -4.8012 -1.0000

    -1.1649 -5.3010 -1.0000

    4.0271 -2.1064 -1.0000

    7.0691 -7.7252 -1.0000

    5.2649 2.0255 -1.0000

    0.6199 2.4081 -1.0000

    3.6261 -6.4882 -1.0000

    6.0412 -7.7702 -1.0000

    -3.2912 -5.1214 -1.0000

    6.8207 -6.9091 -1.0000

    1.2975 2.1944 -1.0000

    2.4203 5.8340 -1.0000

    -7.1048 5.0697 1.0000

    0.4628 3.1096 1.0000

    绘制出了数据点的图像:

    0818b9ca8b590ca3270a3433284dd417.png

    3、测试二次函数分类线:y=x^2-4

    X3=generate_signedDataForEllipse(100,[-8,8],[-8,8],1,2,-4)

    输出结果:

    X3 =

    -6.1257 -4.1532 -1.0000

    2.9585 5.4281 1.0000

    7.5223 -4.5573 -1.0000

    4.1655 1.3456 -1.0000

    -1.5528 0.1606 1.0000

    -0.0697 2.4219 1.0000

    3.8993 -3.1687 -1.0000

    -6.5662 5.2154 -1.0000

    -1.7666 4.4049 1.0000

    -5.1301 -6.2502 -1.0000

    6.4825 6.0216 -1.0000

    7.9967 5.8281 -1.0000

    -7.4100 0.7149 -1.0000

    7.9619 0.1761 -1.0000

    5.9762 -6.8765 -1.0000

    7.8006 6.7634 -1.0000

    1.0282 -1.0966 1.0000

    -2.5945 3.5316 1.0000

    -7.7815 -2.0150 -1.0000

    6.7630 0.7437 -1.0000

    -0.4178 -0.0554 1.0000

    -3.0565 7.2134 1.0000

    7.7119 0.2170 -1.0000

    7.8814 -0.7065 -1.0000

    -1.1833 -4.5886 -1.0000

    -4.9080 5.3241 -1.0000

    3.6262 0.4759 -1.0000

    5.2653 0.1900 -1.0000

    0.8314 -4.5874 -1.0000

    1.4051 -5.7158 -1.0000

    -7.1644 2.9329 -1.0000

    1.7370 -4.4855 -1.0000

    -1.4995 2.0785 1.0000

    0.8849 -5.9587 -1.0000

    -5.2928 -7.9840 -1.0000

    -1.3094 -0.1842 1.0000

    -5.4421 2.6694 -1.0000

    -7.7133 -6.0852 -1.0000

    7.2340 7.6137 -1.0000

    -7.5054 -0.0979 -1.0000

    5.8036 -4.1140 -1.0000

    5.3483 5.0175 -1.0000

    2.0636 -7.9642 -1.0000

    -1.9244 6.4705 1.0000

    2.8856 -1.9388 -1.0000

    2.1113 -4.1077 -1.0000

    1.1426 7.7077 1.0000

    5.5949 -3.4649 -1.0000

    2.9193 -2.2700 -1.0000

    7.7908 -6.6562 -1.0000

    -3.9951 4.9815 -1.0000

    -6.6492 0.5001 -1.0000

    4.8100 3.8212 -1.0000

    -5.7334 -0.9937 -1.0000

    -2.3939 -0.3440 -1.0000

    1.3985 -5.6671 -1.0000

    6.4853 2.2431 -1.0000

    -5.3930 1.0546 -1.0000

    6.9059 4.5296 -1.0000

    2.9710 -0.5405 -1.0000

    -3.8349 1.1083 -1.0000

    -4.0197 -2.8912 -1.0000

    6.5728 6.1635 -1.0000

    4.7134 6.8130 -1.0000

    -5.1386 0.2807 -1.0000

    2.0321 6.6109 1.0000

    2.6235 -1.7729 -1.0000

    3.8401 5.0822 -1.0000

    1.6055 -6.6400 -1.0000

    6.7577 -7.1424 -1.0000

    0.4324 -6.0983 -1.0000

    -1.9177 5.0053 1.0000

    -4.0945 6.1508 -1.0000

    3.4023 -1.9496 -1.0000

    -4.0173 -3.9543 -1.0000

    4.2759 -7.2022 -1.0000

    2.9646 1.9244 -1.0000

    3.9470 7.6361 -1.0000

    -1.8574 -3.8367 -1.0000

    6.0395 4.8975 -1.0000

    -0.6221 -6.5446 -1.0000

    1.0283 -5.0019 -1.0000

    0.5070 -2.3195 1.0000

    -2.9635 3.6279 -1.0000

    0.2524 4.6503 1.0000

    -4.7281 2.8497 -1.0000

    -7.1602 4.8188 -1.0000

    2.8571 7.1361 1.0000

    -6.5351 6.5350 -1.0000

    0.1592 1.8385 1.0000

    -2.9429 -6.7602 -1.0000

    5.6098 -5.6876 -1.0000

    -2.0722 1.9583 1.0000

    7.9608 0.2775 -1.0000

    7.8482 -4.3754 -1.0000

    -1.6319 3.1451 1.0000

    -6.9657 3.9626 -1.0000

    -1.2736 4.9811 1.0000

    -1.9263 -2.8949 -1.0000

    7.7768 3.4909 -1.0000

    显示图片:

    0818b9ca8b590ca3270a3433284dd417.png 四、总结与思考: 从实验结果看到,本函数对于二元一次、抛物线形式的分类条件具有较好的效果。

    展开全文
  • 自制数据集时标签的制作代码,matlab版本,亲测有效,欢迎大家下载
  • %% Machine Learning Online Class - Exercise 3 | Part 1: One-vs-all% Instructions% ------------%% This file contains code that helps you get started on the% linear exercise. You will need to comple...

    %% Machine Learning Online Class - Exercise 3 | Part 1: One-vs-all

    % Instructions

    % ------------

    %

    % This file contains code that helps you get started on the

    % linear exercise. You will need to complete the following functions

    % in this exericse:

    %

    % lrCostFunction.m (logistic regression cost function)

    % oneVsAll.m

    % predictOneVsAll.m

    % predict.m

    %

    % For this exercise, you will not need to change any code in this file,

    % or any other files other than those mentioned above.

    %

    %% Initialization

    clear ; close all; clc

    %% Setup the parameters you will use for this part of the exercise

    input_layer_size = 400; % 20x20 Input Images of Digits

    num_labels = 10; % 10 labels, from 1 to 10

    % (note that we have mapped "0" to label 10)

    %% =========== Part 1: Loading and Visualizing Data =============

    % We start the exercise by first loading and visualizing the dataset.

    % You will be working with a dataset that contains handwritten digits.

    %

    % Load Training Data

    fprintf(‘Loading and Visualizing Data ...\n‘)

    load(‘ex3data1.mat‘); % training data stored in arrays X, y

    m = size(X, 1);

    2b65ef29a5872cc0e4771c25889edd04.gif

    6a087676c59fa8b19d76e6bb55a32902.gif

    size(X, 1);

    X=5000*400size(X,1) = 5000取行

    size(X,2) = 400取列

    解释

    % Randomly select 100 data points to display

    rand_indices = randperm(m);

    sel = X(rand_indices(1:100), :);

    displayData(sel);

    fprintf(‘Program paused. Press enter to continue.\n‘);

    pause;

    %% ============ Part 2: Vectorize Logistic Regression ============

    % In this part of the exercise, you will reuse your logistic regression

    % code from the last exercise. You task here is to make sure that your

    % regularized logistic regression implementation is vectorized. After

    % that, you will implement one-vs-all classification for the handwritten

    % digit dataset.

    %

    fprintf(‘\nTraining One-vs-All Logistic Regression...\n‘)

    lambda = 0.1;

    [all_theta] = oneVsAll(X, y, num_labels, lambda);

    fprintf(‘Program paused. Press enter to continue.\n‘);

    pause;

    %% ================ Part 3: Predict for One-Vs-All ================

    % After ...

    pred = predictOneVsAll(all_theta, X);

    fprintf(‘\nTraining Set Accuracy: %f\n‘, mean(double(pred == y)) * 100);

    展开全文
  • 使用分类器对特征数据做分类器,需要使用正负样本,本程序旨在为正负样本数据做标签
  • 图片概述matlab代码通过弱监督检测中的知识蒸馏进行多标签图像分类 该存储库包含该论文的代码(在中): 弱监督检测中基于知识蒸馏的多标签图像分类[] [] , , , , 和 项目页: 弱监督检测(WSD) 我们使用WSDDN ...
  • 输入:特征和标签->模型->回归系数->预测:分类结果 功能:逻辑回归实现二分类
  • 使用softmax和sigmoid激活函数来做类分类和多标签分类 在实际应用中,一般将softmax用于类分类的使用之中,而将sigmoid用于多标签分类之中,对于图像处理而言,网络模型抽取图像特征的结构基本相同,只是根据...
  • Matlab代码sqrt 资料集 资料集 标签 实例 特征 基数 米尔弗里克 38 25000 1000 4.7 表现 类型 资料集 微型F1 宏F1 此代码 米尔弗里克 0.540699 0.39643 纸 米尔弗里克 0.54 0.39 范围 alpha(对于输出损耗参数):...
  • 外罚函数法matlab代码多标签分类的半定和谱弛豫 描述 依赖关系 代码根据需要需要一些外部库。 摩塞克 CVX 最大流量/最小切割 安德鲁·德龙的 Matlab 包装器。 LIBLINEAR 半正定矩阵锥的低秩优化 由 Journee 实施。 ...
  • 对于组合二元支持向量机模型的类学习,使用纠错输出码(ECOC,error-correcting output codes )。有关详细信息,请参阅fitcecoc。 ECOC 可以用来将 Multiclass Learning 问题转化为 Binary Classification 问题。...
  • 一、模式识别神经网络在matlab命令窗口输入:nnstart 或 nprtool 就可以进入matlab神经网络GUI二、鸢尾花数据集iris示例1.输入数据集,划分训练集、测试集load fisheriris;[m,n]=size(meas);data=zeros(m,n+1);data...
  • 对于多分类问题,如何对预测结果进行可视化是对比分析的关键一步,在实际多分类问题,除了简单展示模型预测精度外,如何分别不同类别之间的预测结果对于分析样本相关性和属性区别具有重要意义,在MATLAB中一般通过...
  • 盆景-用于极端多标签分类的多样树和浅树 极端多标签分类( XMC )指的是分类器的监督学习,该分类器可以使用来自所有可能的目标标签的极大集合中的相关标签的子集自动标记实例。 盆景学习了多样性促进浅树的合奏,...
  • 现学现卖,csdn论坛有许多3分类器的MATLAB代码,4分类MATLAB代码比较少 BP神经网络4分类器代码如下,欢迎访问: 4分类MATLAB代码: 寻来
  • 参考: https://www.cnblogs.com/fledlingbird/p/10675922.html
  • 返回一个或个测试实例的估计标签以及估计的准确性。 2. 以降序返回具有各自概率的标签。 使用鸢尾花数据集的示例 加载fisheriris X = 测量值; Y = 物种; Xnew = [min(X);mean(X);max(X)]; mdl = NaiveBayes('...
  • Matlab分类准确率代码

    2018-01-12 14:43:50
    matlab实现的计算但标签分类聚类准确率的计算代码。函数包含两个参数groundtruth以及分类/聚类模型给出的预测标签向量
  • 文章目录SVM 多分类对带标签的高光谱数据建立分类模型代码1.训练集、测试集2、数据归一化3、参数选择4、模型训练5、模型测试 SVM 多分类 采用libSVM包进行多分类 对带标签的高光谱数据建立分类模型 数据描述:三个...
  • yeast.mat多标签数据集

    2020-07-28 22:50:08
    yeast(酵母菌)数据集是一个标签数据集,里面包括14种标签,已经划分好了训练集和测试集,可以直接进行调用,可用于机器学习,多标签分类等等,在MATLAB和python中都可调用。
  • matlab开发-标签标签标签。创建三维绘图

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 10,230
精华内容 4,092
关键字:

多标签分类matlab

matlab 订阅