精华内容
下载资源
问答
  • svmTrain
    2021-11-25 15:23:58

    MATLAB自带的svmtrain和libsvm中的svmtrain函数的区别

    libsvm中的svmtrain是mex文件,调用c运行,由于MEX文件执行效率高,故matlab中如果有文件重名的话,Matlab将优先调用MEX文件,也就是你安装完以后,运行的就会是libsvm中的svmtrain.mex了。
    即:即使新版MATLAB中会下划线提示svmtrain已经删除,但是仍能正常使用。

    当然,也可以按照这个教程在libsvm工具箱中对svmtrain函数改个名字,用的时候用新名字就行
    教程地址:https://blog.csdn.net/m0_50969549/article/details/119955415?spm=1001.2014.3001.5501

    更多相关内容
  • svmtrain.zip,svmtrain.c
  • SVM train recogination
  • matlab系统原来自带的svmtrain函数和svmclassify函数。 有需要的在2017a以前的版本里面也能找到! 在新版本中(2018以后),你再运行有svmtrain函数的文件,我试了一下结果是,就算你拷贝过来原来的svmtrain函数,...
  • matlab svmtrain和svmclassify函数使用示例.rar,matlab svmtrain和svmclassify函数使用示例.docx
  • svmTrain.zip,svmTrain.m,train_data.mat
  • svmtrain.zip_svmtrain

    2022-07-14 23:31:36
    svmtrain.zip,svmtrain.m
  • 使用训练支持向量机模型(svmTrain)。X是一个mxn矩阵,其中每个矩阵%例如一行。模型是svmTrain返回的svm模型。%pred是{0,1}值的预测的m x 1列。
  • SVMtrain函数用法

    千次阅读 2021-04-24 17:01:55
    1.最近结合ACO和SVM做分类,于是仔细看了下svmtrain的help文档。现结合该doc文档,做简单整理,希望对svm入门者有点帮助哦。svmtrain:用于训练支持向量机分类器。语法格式如下:SVMStruct = svmtrain(Training, ...

    1.最近结合ACO和SVM做分类,于是仔细看了下svmtrain的help文档。现结合该doc文档,做简单整理,希望对

    svm入门者有点帮助哦。

    svmtrain:用于训练支持向量机分类器。语法格式如下:

    SVMStruct = svmtrain(Training, Group)

    SVMStruct = svmtrain(..., 'Kernel_Function',

    Kernel_FunctionValue, ...)

    SVMStruct = svmtrain(..., 'RBF_Sigma',

    RBFSigmaValue, ...)

    SVMStruct = svmtrain(..., 'Polyorder',

    PolyorderValue, ...)

    SVMStruct = svmtrain(..., 'Mlp_Params',

    Mlp_ParamsValue, ...)

    SVMStruct = svmtrain(..., 'Method', MethodValue,

    ...)

    SVMStruct = svmtrain(..., 'QuadProg_Opts',

    QuadProg_OptsValue, ...)

    SVMStruct = svmtrain(..., 'SMO_Opts',

    SMO_OptsValue, ...)

    SVMStruct = svmtrain(..., 'BoxConstraint',

    BoxConstraintValue, ...)

    SVMStruct = svmtrain(..., 'Autoscale',

    AutoscaleValue, ...)

    SVMStruct = svmtrain(..., 'Showplot',

    ShowplotValue, ...)

    解释如下:

    Training是一个M行N列的矩阵,M是样本数,N是特征维数。Group:是个列向量,表示样本对应的类别,用字符串表示(可以用数字或单个字符)。

    classifier is returned in SVMStruct, a structure with the

    following fields. 'Kernel_Function',

    Kernel_FunctionValue,.......'Showplot',

    ShowplotValue这些在svmtrain中是可选项。他们在svmtrain中出现的顺序是无关紧要的。但必须成对出现,前面单引号里的是字符标记,后面给出的是对应的值。Kernel_FunctionValue

    有如下些可选类别:

    linear — Default. Linear kernel or dot product.

    quadratic — Quadratic kernel.

    rbf — Gaussian Radial Basis Function kernel with a default

    scaling factor, sigma, of 1.

    polynomial — Polynomial kernel with a default order of 3.

    mlp — Multilayer Perceptron kernel with default scale and bias

    parameters of [1, -1].

    如可通过如下来设定核函数为Gaussian Radial Basis Function

    kernel :

    SVMStruct = svmtrain(Training, Group,

    'Kernel_Function', rbf);

    %%-------------------------分割线----------------------------------------------------------------------

    2 svmtrain(

    … );

    %通过训练集来训练模型 svmpredict( …

    );%对测试集进行预测 >>model

    = svmtrain(train_label, train_matrix,

    ['libsvm_options']); -train_label: An m by 1 vector of training

    labels (type must be

    double).-train_matrix: An m by n matrix of m training

    instances with n features. It can be dense or sparse

    (type must be

    double).-libsvm_options: A string of training options

    in the same format as that of LIBSVM.===============The 'svmtrain'

    function returns a model which can be used for

    futureprediction. >>

    [predicted_label, accuracy, decision_values/prob_estimates] =

    svmpredict(test_label, test_matrix, model,

    ['libsvm_options']); -test_label: An m by 1 vector of prediction

    labels. If labels of test data are unknown, simply use

    any random values. (type must be

    double)-testmatrix: An m by n matrix of m testing

    instances with n features. It can be dense or sparse.

    (type must be double)-model: The output of

    svmtrain.-libsvm_options: A string of testing options in

    the same format as that of

    LIBSVM.=============== English:libsvm_options:-s

    svm_type : set type of SVM (default 0)0 -- C-SVC1 -- nu-SVC2 --

    one-class SVM3 -- epsilon-SVR4 -- nu-SVR-t kernel_type : set type

    of kernel function (default 2)0 -- linear: u'*v1 -- polynomial:

    (gamma*u'*v + coef0)^degree2 -- radial basis function:

    exp(-gamma*|u-v|^2)3 -- sigmoid: tanh(gamma*u'*v + coef0)4 --

    precomputed kernel (kernel values in training_instance_matrix)-d

    degree : set degree in kernel function (default 3)-g gamma : set

    gamma in kernel function (default 1/k)-r coef0 : set coef0 in

    kernel function (default 0)-c cost : set the parameter C of C-SVC,

    epsilon-SVR, and nu-SVR (default 1)-n nu : set the parameter nu of

    nu-SVC, one-class SVM, and nu-SVR (default 0.5)-p epsilon : set the

    epsilon in loss function of epsilon-SVR (default 0.1)-m cachesize :

    set cache memory size in MB (default 100)-e epsilon : set tolerance

    of termination criterion (default 0.001)-h shrinking: whether to

    use the shrinking heuristics, 0 or 1 (default 1)-b

    probability_estimates: whether to train a SVC or SVR model for

    probability estimates, 0 or 1 (default 0)-wi weight: set the

    parameter C of class i to weight*C, for C-SVC (default 1)-v n:

    n-fold cross validation

    mode==========================================================Chinese:Options:可用的选项即表示的涵义如下  -s

    svm类型:SVM设置类型(默认0)  0 -- C-SVC  1 --v-SVC  2 – 一类SVM  3 -- e

    -SVR  4 -- v-SVR  -t 核函数类型:核函数设置类型(默认2)  0 – 线性:u'v  1 – 多项式:(r*u'v

    + coef0)^degree  2 – RBF函数:exp(-r|u-v|^2)  3 –sigmoid:tanh(r*u'v +

    coef0)  -d degree:核函数中的degree设置(针对多项式核函数)(默认3)  -g

    r(gama):核函数中的gamma函数设置(针对多项式/rbf/sigmoid核函数)(默认1/ k)  -r

    coef0:核函数中的coef0设置(针对多项式/sigmoid核函数)((默认0)  -c cost:设置C-SVC,e

    -SVR和v-SVR的参数(损失函数)(默认1)  -n nu:设置v-SVC,一类SVM和v- SVR的参数(默认0.5)  -p

    p:设置e -SVR 中损失函数p的值(默认0.1)  -m

    cachesize:设置cache内存大小,以MB为单位(默认40)  -e eps:设置允许的终止判据(默认0.001)  -h

    shrinking:是否使用启发式,0或1(默认1)  -wi

    weight:设置第几类的参数C为weight?C(C-SVC中的C)(默认1)  -v n:

    n-fold交互检验模式,n为fold的个数,必须大于等于2  其中-g选项中的k是指输入数据中的属性数。option -v

    随机地将数据剖分为n部分并计算交互检验准确度和均方根误差。以上这些参数设置可以按照SVM的类型和核函数所支持的参数进行任意组合,如果设置的参数在函数或SVM类型中没有也不会产生影响,程序不会接受该参数;如果应有的参数设置不正确,参数将采用默认值。

    %%-------------------------分割线----------------------------------------------------------------------

    3.有时需要将变量转化为字符形式,这个很有用的,这个时候就需要记住num2str(variable,precison)哦。

    例如:

    用svm时,model=svmtrain(Lables,constants,'-c 1 -g 10')

    为了可以用循环来调试到一个好的参数,可以用num2str这个函数将变量转化为字符型。

    a=0.8, b=10,

    cmd=['-c',' ',num2str(a),' ','-g',' ',num2str(b)];%这里'

    '是为了空格

    model=svmstrain(Labels,constant,cmd);

    %%-------------------------分割线----------------------------------------------------------------------

    4.svm一点资料

    展开全文
  • matlab 自带svm的测试, 用设置的数据简单测试svmtrain函数和svmclassify函数,并用图明确表示,自测结果正确,适合初学者
  • 學生還是試不出來,特別是,如果照範例打svmStruct = svmtrain(data(train,:),groups(train),'showplot',true);就會出現Usage: model = svmtrain(training_label_vector, training_instance_matrix, 'libsvm_options...

    學生還是試不出來,

    特別是,如果照範例打

    svmStruct = svmtrain(data(train,:),groups(train),'showplot',true);

    就會出現

    Usage: model = svmtrain(training_label_vector, training_instance_matrix, 'libsvm_options');

    libsvm_options:

    -s svm_type : set type of SVM (default 0)

    0 -- C-SVC

    1 -- nu-SVC

    2 -- one-class SVM

    3 -- epsilon-SVR

    4 -- nu-SVR

    -t kernel_type : set type of kernel function (default 2)

    0 -- linear: u'*v

    1 -- polynomial: (gamma*u'*v + coef0)^degree

    2 -- radial basis function: exp(-gamma*|u-v|^2)

    3 -- sigmoid: tanh(gamma*u'*v + coef0)

    4 -- precomputed kernel (kernel values in training_instance_matrix)

    -d degree : set degree in kernel function (default 3)

    -g gamma : set gamma in kernel function (default 1/k)

    -r coef0 : set coef0 in kernel function (default 0)

    -c cost : set the parameter C of C-SVC, epsilon-SVR, and nu-SVR (default 1)

    -n nu : set the parameter nu of nu-SVC, one-class SVM, and nu-SVR (default 0.5)

    -p epsilon : set the epsilon in loss function of epsilon-SVR (default 0.1)

    -m cachesize : set cache memory size in MB (default 100)

    -e epsilon : set tolerance of termination criterion (default 0.001)

    -h shrinking : whether to use the shrinking heuristics, 0 or 1 (default 1)

    -b probability_estimates : whether to train a SVC or SVR model for probability estimates, 0 or 1 (default 0)

    -wi weight : set the parameter C of class i to weight*C, for C-SVC (default 1)

    -v n : n-fold cross validation mode

    -q : quiet mode (no outputs)

    這樣的一串文字,那學生便在照它文字的提試,把meas 分成test 及 train,

    那就只會產生一個model 在 workspace裡…並沒有產生圖形。

    請問學生哪裡做錯了嗎?謝謝

    [本帖最后由 f814030 于 2009-9-19 08:43 编辑]

    展开全文
  • 题目:由LIBSVM的svmtrain输出结果得到分类超平面的法向量w和偏移项b 原文链接:由LIBSVM的svmtrain输出结果得到分类超平面的法向量w和偏移项b_彬彬有礼的专栏-CSDN博客 相信很多人都会使用LIBSVM软件包,...

    题目:由LIBSVM的svmtrain输出结果得到分类超平面的法向量w和偏移项b

    原文链接:由LIBSVM的svmtrain输出结果得到分类超平面的法向量w和偏移项b_彬彬有礼的专栏-CSDN博客

            相信很多人都会使用LIBSVM软件包,svmtrain和svmpredict两个函数分别完成训练和预测:svmtrain输出训练模型,然将将训练模型作为svmpredict的输入参数即可得预测结果。训练模型作为一个中间变量似乎从来没有出现过,但对于很多人来说这的确已经足够了;然而,这并不能满足我们在某些应用场景的需要。SVM本质上与Logistic Regression一样,是训练得到一个分类超平面,有时候我们不仅仅是想要一个输出结果,而是要得到这个超平面,即法向量w和偏移项b,这时候就需要对svmtrain的输出模型进行研究了。

            本文主要针对Matlab环境下应用LIBSVM,本文中的代码假设你已经下载并编译了LIBSVM,在文件夹中包含以下三个文件(本人为64软件,所以是.mexw64):

            libsvmread.mexw64

            svmtrain.mexw64

            svmpredict.mexw64

    还包含了以下数据集(该数据集在LIBSVM压缩包根目录下,无扩展名):

            heart_scale

    注:LIBSVM主页https://www.csie.ntu.edu.tw/~cjlin/libsvm/,请下载MATLAB and OCTAVE版本,目前最新版本是version3.22:

             鉴于要读懂svmtrain的输出还是需要一些SVM的基础知道的,这里以[周志华. 机器学习. 清华大学出版社,2016.](以下统称西瓜书)为基础,原则上本文认为你已经读懂了第6章前四节内容,以下第1部分的有关支持向量机的介绍仅为第2部分介绍程序时叙述方便,详细内容请看原文。西瓜书必将成为机器学习领域的中文经典教材,建议买一本学习或者收藏,如果仅为了配合看本文也可以在网上搜索pdf电子版。以下为正文。

    1、支持向量机基础

            本部分重点知道分类超平面法向量w的计算公式(6.9)(或(6.17),二者相同),知道分类超平面偏移项b的计算公式(6.17)(6.18)即可,另外了解α是个什么角色……

            支持向量机本质上是在某种约束条件下寻找一个分类超平面将正反两类样本分开:


    支持向量机的模型是一个凸二次规划问题:

     


    但一般是通过拉格朗日乘子法来求解而不用现成的优化计算包:


    【敲黑板!!!】式(6.9)是重点!重点!!重点!!!

     

     

    【敲黑板!!!】式(6.9)的用处来了:将解出的α代入即可得w。

    【敲黑板!!!】式(6.17)和式(6.18)是重点!重点!!重点!!!

            然而以上介绍的是硬间隔支持向量机,即没样训练样本违反式(6.6)的约束条件,也就是说训练样本在样本空间或特征空间是线性可分的,即存在一个超平面能将不同类的样本完全分开。然而现实中这种情况过于理想化,更为实际的方法是允许一些样本违反式(6.6)的约束条件,因此有了软间隔(Soft Margin)支持向量机,优化目标如下:

    该优化问题一般仍采用拉格朗日乘子法求解:

             注意,式(6.37)与式(6.9)一模一样。求解优化问题式(6.40)解出的α,求出w和b即可得到划分超平面。法向量w可以通过式(6.37)求解,b仍通过式(6.17)或更鲁棒的式(6.18)来求解,但这里有个特别要注意的问题:式(6.17)成立的前提是支持向量在最大间隔边界上,这对于硬间隔支持向量机来说没啥问题,所有支持向量都在最大间隔边界上;但对于软间隔支持向量机来说只有满足0<αi<C的支持向量才在最大间隔边界上,这一点特别注意!!!

     

    2、MATLAB例子代码及解释

            代码如下(需要libsvmread,svmtrain, svmpredict三个.mexw64文件以及heart_scale数据集,heart_scale在libsvm-3.22.zip解压后根目录下,三个.mexw64文件是编译根目录matlab文件夹内的文件所得):(注意自己是否改过名,比如我为了避免调用matlab自带svmtrain,我进行了改名:svmtrain, svmpredict->libsvmtrain, libsvmpredict)

    %libsvm中间参数探索@20180704
    clear all;close all;clc;
    [y, x] = libsvmread('heart_scale'); 
    x = full(x);
    
    %SVM训练
    model = svmtrain(y, x, '-t 0 -c 1');
    [predict_label, accuracy, dec_values] = svmpredict(y, x, model);
    
    %支持向量索引(Support Vectors Index)
    SVs_idx = model.sv_indices;
    
    %支持向量特征属性和类别属性
    x_SVs = x(SVs_idx,:);% or use: SVs=full(model.SVs);
    y_SVs = y(SVs_idx);
    
    %求平面w^T x + b = 0的法向量w
    alpha_SVs = model.sv_coef;%实际是a_i*y_i
    w = sum(diag(alpha_SVs)*x_SVs)';%即西瓜书公式(6.9)
    
    %求平面w^T x + b = 0的偏移项b
    %由于是软件隔支持向量机,所以先找出正好在最大间隔边界上的支持向量
    SVs_on = (abs(alpha_SVs)<1);%C=1 by parameter '-c 1'
    y_SVs_on = y_SVs(SVs_on,:);
    x_SVs_on = x_SVs(SVs_on,:);
    %理论上可选取任意在最大间隔边界上的支持向量通过求解西瓜书式(6.17)获得b
    b_temp = zeros(1,sum(SVs_on));%所有的b
    for idx=1:sum(SVs_on)
        b_temp(idx) = 1/y_SVs_on(idx)-x_SVs_on(idx,:)*w;
    end
    b = mean(b_temp);%更鲁棒的做法是使用所有支持向量求解的平均值
    
    %将手动计算出的偏移项b与svmtrain给出的偏移项b对比
    b_model = -model.rho;%model中的rho为-b
    b-b_model
    
    %将手动计算出的决策值与svmpredict输出的决策值对比
    %决策值f(x)=w^T x + b
    f_x = x * w + b;
    sum(abs(f_x-dec_values))
    ————————————————
    版权声明:本文为CSDN博主「jbb0523」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
    原文链接:https://blog.csdn.net/jbb0523/article/details/80918214


            运行以上程序,输出两个非常小的值。第1个值很小说明我们手动计算出来b与model中给出的b相差很小;第2值很小说明我们手动计算出w和b后根据式(6.12)得到的决策值与svmpredict输出的决策值基本一致。

            以下简单介绍一下程序中的几个关键点。

            以上三行是实现SVM的训练和预测。这里svm通过’-t 0’设置为线性核,值得注意的是这里也必须设置为线性核,否则根据西瓜书6.3节的内容,w对应的应该是映射后的特征向量φ(x),若为高斯核(RBF核)则φ(x)为无穷维向量,即w也为无穷维向量,为了避免高维计算,此时一般不显式计算w,而是使用核函数,如西瓜书式(6.24)所示一样计算决策值f(x),此即核技巧。

     

            以上三行是为了实现西瓜书式(6.9)得到w。对于式(6.9)来说,若xi不是特征向量则相应的αi等于0,即不出现在式(6.9)中;因此式(6.9)相当于将每个支持向量xi乘以对应的系数αiyi后累加得到法向量w,维度与xi相同。

            以上10行是为了实现西瓜书式(6.18)得到b。其中第23~25行是找出位于最大间隔边界上的支持向量,第23行之所以取abs(alpha_SVs) 是由于alpha_SVs中包含了y_i,因此要取绝对值,而(abs(alpha_SVs)<1)中的小于1是由于式(6.35)中的C=1,这是在第7行中通过'-c 1'实现的;第28~30行实际是针对每一个位于最大间隔边界的支持向量求了一个b,即式(6.18)中括号之内的表达式;第31行取平均即为式(6.18)。

            另外,b_temp的最大值为1.0502,最小值为1.0512,平均值为1.0507,可见只要是在最大间隔边界上的支持向量计算出的b差别很小,当然使用平均值仍是比较鲁棒的方法。

            有关svmtrain的输出model结构体内各变量的含义参见《libsvm 训练后的模型参数讲解》(链接:http://blog.sina.com.cn/s/blog_6646924501018fqc.html),简单摘抄如下以做备份:


    model.Parameters参数意义从上到下依次为:

             -s svm类型:SVM设置类型(默认0)

            -t 核函数类型:核函数设置类型(本例设为0即线性核,参见西瓜书6.3节)

            -d (degree):核函数中的degree设置(针对多项式核函数)(默认3)

            -g (gama):核函数中的gamma函数设置(针对多项式/rbf/sigmoid核函数) (默认特征属笥数目的倒数,本例中为1/13)

            -r coef0:核函数中的coef0设置(针对多项式/sigmoid核函数)((默认0)

    model.nr_class表示数据集中有多少类别,本例为二分类;

    model.totalSV表示支持向量的总个数,本例共有101个;

    model.rho是分类超平面的偏移项的相反数(即-b);

    model.Label表示数据集中类别的标记都有什么,这里是1和-1,对应于nr_class;

    model.indices表示支持向量在训练集中的索引,即第几个训练样本为支持向量,是一个大小为totalSV的列向量;

    model.ProbA

    model.ProbB这两个参数使用-b参数时才能用到,用于概率估计;

    model.nSV表示每类样本的支持向量的数目,这里表示标记为1的样本的支持向量有51个,标记为-1的样本的支持向量为50;(注意:这里nSV所代表标记的顺序与Label对应)

    model.sv_coef表示式(6.9)(或(6.37))中支持向量的αiyi(因为非支持向量αi=0),是一个大小为totalSV的列向量;;

    model.SVs表示所有支持向量,以稀疏格式存储,若要转为普通矩阵可使用函数full;

             有关svmpredict函数的三个输出,第1个predict_label为预测结果标记,第3个 dec_values为决策值(即式(6.12)中的f(x)),第2个accuracy包含三个结果,依次意义分别是:分类准率(分类问题中用到的参数指标)、平均平方误差MSE (mean squared error)[回归问题中用到的参数指标]、平方相关系数r2(squared correlation coefficient)[回归问题中用到的参数指标]

             本例中仅以二分类为例说明,若数据集为多分类则会与此说明不同,暂时到此。

            【更新@20191202】若将LIBSVM用于多分类场景,会采用One vs One(OvO)分解方式求解,各OvO 分解超平面的w和b求解参见以下博客:

            《将LIBSVM用于多分类时根据svmtrain输出结果得到各OvO分类超平面的法向量w和偏移项b》

                链接:https://blog.csdn.net/jbb0523/article/details/103355415

    参考文献:

    [1]LIBSVM:https://www.csie.ntu.edu.tw/~cjlin/libsvm/

    [2]周志华. 机器学习. 清华大学出版社,2016.

    [3] libsvm 训练后的模型参数讲解,http://blog.sina.com.cn/s/blog_6646924501018fqc.html

    展开全文
  • 利用matlab调用svmtrain做支持向量机分类
  • svmtrain和svmpredict

    2020-04-14 12:06:56
    本文主要介绍了SVM工具箱中svmtrain和svmpredict两个主要函数: (1)model= svmtrain(train_label, train_matrix, [‘libsvm_options’]); 其中: train_label表示训练集的标签。 train_matrix表示训练集的属性矩阵。...
  • matlab SVMtrain函数

    千次阅读 2021-01-12 10:15:20
    matlab SVMtrain函数 %svm train X_train_PCA = mapminmax(X_train_PCA, 0, 1); svm_model=svmtrain(y_train,X_train_PCA','-s 0 -t 0 -c 1'); % svm test X_test_PCA = mapminmax(X_test_PCA, 0, 1); [predict_...
  • 解决svmtrain已被删除问题

    千次阅读 热门讨论 2021-08-27 16:10:52
    解决svmtrain已被删除问题 这是因为libsvm中的svmtrain可能与matlab自带的svmtrain 重复了,既然原因知道了,我们就可以取解决这个问题了。首先们将matlab路径打开到含有make.m的文件夹: 然后将图中箭头所标的两个...
  • 源程序为: TrainLabel = [zeros(length(TrainData_background),1); ... ones(length(TrainData_foreground),1)]; TrainData = [TrainData_background;...%svm调用出现问题 原函数为svmtrain '-t
  • MATLAB中libsvm的svmtrain和svmpredict函数的使用方法与参数设置
  • 训练一个支持向量机分类器,输入输出都是bmp图片,用于图像识别,检测图片中是否含训练的正样本
  • 在其中的windows文件夹中,libsvm工具包(含网格法查找最优解函数 SVMcgForClass.m 内用svmtrain函数)
  • 1、在使用svmtrain函数时,需要使用核函数进行分类,百度大部分的都是关于libsvm下的核函数使用,看到了一篇写matlab的svmtrain参数选择,如下https://blog.csdn.net/shenziheng1/article/details/54178685/还可以...
  • Matlab添加包libsvm svmtrain已被删除, 请改用fitcsvm 原因 运行一个脚本,运行的时候总是出现==svmtrain已被删除。 请改用fitcsvm。==后来发现,原来是因为次脚需要用到svmtrain函数,但是此时我的Matlab 2018里面...
  • svmtrain笔记----svmtrian函数

    千次阅读 2019-04-16 15:38:49
    svmtrain函数: model= svmtrain(train_label, train_matrix, [‘libsvm_options’]); 其中: train_label表示训练集的标签。 train_matrix表示训练集的属性矩阵。 libsvm_options是需要设置的一系列参数,各个参数...
  • matlab svmtrain和svmclassify函数使用示例

    万次阅读 多人点赞 2017-01-10 14:46:26
    本文不对支持向量机的原理进行详细解释,直接运用matlab自带的工具箱函数svmtrain、svmclassify解决实际的二分类问题。 导入数据: clear; close all; clc; %% ================ load fisheriris.mat ========...
  • svmtrain和svmpredict的用法和参数含义

    千次阅读 2020-09-06 16:16:37
    svmtrain和svmpredict的用法和参数含义 “Usage: model = svmtrain(training_label_vector, training_instance_matrix, ‘libsvm_options’);\n” “libsvm_options:\n” “-s svm_type : set type of SVM (default ...
  • matlab中libsvm的svmtrain函数用法

    万次阅读 多人点赞 2019-09-04 13:53:19
    两个步骤:训练建模——>模型预测 分类 model = svmtrain(trainlabel, traindata, ‘-s 0 -t 2 -c 1.2 -g 2.8’); 回归 model = svmtrain(trainlabel, traindata, ‘-s 3 -t 2 -c 2.2 -g 2.8 -p 0.01’); 参数说明...
  • 版权声明:转载请注明作者(独孤尚良dugushangliang)出处: 遇到问题,上网搜索,折腾许久,悬而未决。...svmModel = svmtrain(train,group,'kernel_function','linear','showplot',true); ..
  • Matlab在运行SVM相关函数时,如果显示“svmtrain已删除 请改用fitcsvm”,则表示高版本的Matlab已经采用fitcsvm函数替代了旧版本中svmtrain函数,则可以使用新的fitcsvm函数,也可以添加包libsvm后,使用svmtrain...
  • svmtrain函数在高版本的matlab中已经被删除了,改成了fitcsvm和predict 比如说,svmtrain的源代码如下: classifier = svmtrain(train_data, train_labels, 'kernel_function', 'linear', 'boxconstraint',1); test_...
  • 题目:将LIBSVM用于多分类时根据svmtrain输出结果得到各OvO分类超平面的法向量w和偏移项b 在前面曾讨论过《由LIBSVM的svmtrain输出结果得到分类超平面的法向量w和偏移项b》(链接...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 2,957
精华内容 1,182
关键字:

svmTrain