精华内容
下载资源
问答
  • 遗传算法优化支持向量机GASVM matlab代码 GA/SVM 程序包含三个文件: 1。MainGA12.m 2。selectGA12.m 3。svmc12.m MainGA12.m是主文件,其余两个是被调用文件。 MainGA12.m里主要设置有关参数。
  • 基于遗传算法优化SVM的手写字体识别的课程论文,是docx格式的,通过matlab实现,方便大家下载并修改,可以快速成型一篇小课程论文哦!
  • Python实现GA(遗传算法)对SVM分类模型参数的优化资料说明:包括数据集+源代码+Word文档说明。 资料内容包括: 1)需求分析; 2)数据采集; 3)数据预处理; 4)探索性数据分析; 5)特征工程; 6)机器建模; 7)模型评估...
  • 亲测有效,可以来看看,大家一起学习。
  • %遗传算法主程序 %Name:genmain05.m clear clf popsize=20; %群体大小 chromlength=10; %字符串长度(个体长度) pc=0.6; %交叉概率 pm=0.001; %变异概率 ​ pop=initpop(popsize,chromlength); %随机产生初始群体 ...

    1 神经网络-支持向量机

    2 代码

    %遗传算法主程序
    %Name:genmain05.m
    clear
    clf
    popsize=20; %群体大小
    chromlength=10; %字符串长度(个体长度)
    pc=0.6; %交叉概率
    pm=0.001; %变异概率
    ​
    pop=initpop(popsize,chromlength); %随机产生初始群体
    for i=1:20 %20为迭代次数
    [objvalue]=calobjvalue(pop); %计算目标函数
    fitvalue=calfitvalue(objvalue); %计算群体中每个个体的适应度
    [newpop]=selection(pop,fitvalue); %复制
    [newpop]=crossover(pop,pc); %交叉
    [newpop]=mutation(pop,pc); %变异
    [bestindividual,bestfit]=best(pop,fitvalue); %求出群体中适应值最大的个体及其适应值
    y(i)=-max(bestfit);
    n(i)=i;
    pop5=bestindividual;
    x(i)=decodechrom(pop5,1,chromlength)*10/1023;
    pop=newpop;
    end
    ​
    fplot('x^2-4*x+20',[0 10])
    hold on
    plot(x,y,'r*')
    hold off
    ​
    ​
    [z index]=min(y); %计算最大值及其位置,这里取的是y向量中的最大值,如果求最小值应该取min,同时修改适应度函数
    x5=x(index)%计算最大值对应的x值
    y=z

    3 仿真结果

    img

    在这里插入图片描述

    4 参考文献

    [1]连可, 黄建国, 王厚军,等. 一种基于遗传算法的SVM决策树多分类策略研究[J]. 电子学报, 2008, 36(008):1502-1507.

    5 MATLAB代码与数据下载地址

    见博客主页

    展开全文
  • ​ 一、神经网络-支持向量机 支持向量机(Support Vector Machine)是Cortes和... 1 数学部分 1.1 二维空间 ​​​ ​​​ ​​​ ​​​ ​​​ ​​​ ​​​ ​​​ ​​​ 2 算法部分 ​​​ ​​​ ​​​ ​ ...

    一、神经网络-支持向量机

    支持向量机(Support Vector Machine)是Cortes和Vapnik于1995年首先提出的,它在解决小样本、非线性及高维模式识别中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中。 1 数学部分 1.1 二维空间 ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ ​​ 2 算法部分 ​​ ​​ ​​

    二、遗传算法

    • 遗传算法(Genetic Algorithm,GA)是一种进化算法,其基本原理是仿效生物界中的“物竞天择、适者生存”的演化法 则,它最初由美国Michigan大学的J. Holland教授于1967年提出。 • 遗传算法是从代表问题可能潜在的解集的一个种群(population)开始的,而一个种群则由经过基因(gene)编码的一 定数目的个体(individual)组成。因此,第一步需要实现从表现型到基因型的映射即编码工作。初代种群产生之后,按照 适者生存和优胜劣汰的原理,逐代(generation)演化产生出越来越好的近似解,在每一代,根据问题域中个体的适应度 (fitness)大小选择个体,并借助于自然遗传学的遗传算子(genetic operators)进行组合交叉和变异,产生出代表新 的解集的种群。这个过程将导致种群像自然进化一样,后生代种群比前代更加适应于环境,末代种群中的最优个体经过解 码(decoding),可以作为问题近似最优解。

    • 遗传算法有三个基本操作:选择(Selection)、交叉(Crossover)和变异(Mutation)。 • (1)选择。选择的目的是为了从当前群体中选出优良的个体,使它们有机会作为父代为下一代繁衍子孙。根据各个个体的 适应度值,按照一定的规则或方法从上一代群体中选择出一些优良的个体遗传到下一代种群中。选择的依据是适应性强的 个体为下一代贡献一个或多个后代的概率大。 • (2)交叉。通过交叉操作可以得到新一代个体,新个体组合了父辈个体的特性。将群体中的各个个体随机搭配成对,对每 一个个体,以交叉概率交换它们之间的部分染色体。 • (3)变异。对种群中的每一个个体,以变异概率改变某一个或多个基因座上的基因值为其他的等位基因。同生物界中一样, 变异发生的概率很低,变异为新个体的产生提供了机会。

    遗传算法的基本步骤:

    1)编码:GA在进行搜索之前先将解空间的解数据表示成遗传空间的基因型串结构数据, 这些串结构数据的丌同组合便构成了丌同的点。 2)初始群体的生成:随机产生N个初始串结构数据,每个串结构数据称为一个个体,N个 个体构成了一个群体。GA以这N个串结构数据作为初始点开始进化。 3)适应度评估:适应度表明个体或解的优劣性。丌同的问题,适应性函数的定义方式也丌 同。

    4)选择:选择的目的是为了从当前群体中选出优良的个体,使它们有机会作为父代为下一 代繁殖子孙。遗传算法通过选择过程体现这一思想,进行选择的原则是适应性强的个体为 下一代贡献一个或多个后代的概率大。选择体现了达尔文的适者生存原则。 5)交叉:交叉操作是遗传算法中最主要的遗传操作。通过交叉操作可以得到新一代个体, 新个体组合了其父辈个体的特性。交叉体现了信息交换的思想。 6)变异:变异首先在群体中随机选择一个个体,对于选中的个体以一定的概率随机地改变 串结构数据中某个串的值。同生物界一样, GA中变异发生的概率很低,通常取值很小。

    遗传算法工具箱:

    • MATLAB内嵌遗传算法工具箱: gadst • Sheffield大学遗传算法工具箱: gatbx • 北卡罗来纳大学遗传算法工具箱: gaot

    initializega函数:

    ga函数:

    遗传算法优化BP神经网络初始权值与阈值:

    ​三、代码

    %遗传算法主程序
    %Name:genmain05.m
    clear
    clf
    popsize=20; %群体大小
    chromlength=10; %字符串长度(个体长度)
    pc=0.6; %交叉概率
    pm=0.001; %变异概率
    
    pop=initpop(popsize,chromlength); %随机产生初始群体
    for i=1:20 %20为迭代次数
    [objvalue]=calobjvalue(pop); %计算目标函数
    fitvalue=calfitvalue(objvalue); %计算群体中每个个体的适应度
    [newpop]=selection(pop,fitvalue); %复制
    [newpop]=crossover(pop,pc); %交叉
    [newpop]=mutation(pop,pc); %变异
    [bestindividual,bestfit]=best(pop,fitvalue); %求出群体中适应值最大的个体及其适应值
    y(i)=-max(bestfit);
    n(i)=i;
    pop5=bestindividual;
    x(i)=decodechrom(pop5,1,chromlength)*10/1023;
    pop=newpop;
    end
    
    fplot('x^2-4*x+20',[0 10])
    hold on
    plot(x,y,'r*')
    hold off
    
    
    [z index]=min(y); %计算最大值及其位置,这里取的是y向量中的最大值,如果求最小值应该取min,同时修改适应度函数
    x5=x(index)%计算最大值对应的x值
    y=z

    在这里插入图片描述

    5.参考文献:

    书籍《MATLAB神经网络43个案例分析》

    展开全文
  • 行业分类-物理装置-基于IMF能量矩和遗传算法优化SVM的储能电池过充诊断方法.zip
  • 遗传算法对支持向量机的参数进行优化,从而提高分类准确率
  • 遗传算法是一种具有随机、高度并行、自适应特点的...文章利用改进的遗传算法优化SVM 参数,提高SVM分类器的学习能力和推广能力,实验仿真表明,优化的SVM不仅能高准确地预测训练集,而且使分类准确率维持在一个较高的水平。
  • 粒子群算法优化支持向量机模型参数代码,代码包含注释和数据文件
  • 为了克服这些问题,提出了一种改进的遗传算法,并用该算法来优化神经网络的权值和阈值。最后,利用基于该算法的神经网络对大量USPS手写数字样本集进行训练。实验结果表明,该算法比单纯的BP算法具有更快的识别速率。
  • 机器学习算法实践:Platt SMO 和遗传算法优化 SVM 之前实现了简单的SMO算法来优化SVM的对偶问题,其中在选取α的时候使用的是两重循环通过完全随机的方式选取,具体的实现参考《机器学习算法实践-SVM中的SMO算法...

    机器学习算法实践:Platt SMO 和遗传算法优化 SVM

    之前实现了简单的SMO算法来优化SVM的对偶问题,其中在选取α的时候使用的是两重循环通过完全随机的方式选取,具体的实现参考《机器学习算法实践-SVM中的SMO算法》。(http://pytlab.github.io/2017/09/01/机器学习算法实践-SVM中的SMO算法/)

     

    本文在之前简化版SMO算法的基础上实现了使用启发式选取α对的方式的Platt SMO算法来优化SVM。另外由于最近自己也实现了一个遗传算法框架GAFT,便也尝试使用遗传算法对于SVM的原始形式进行了优化。

     

    • 对于本文算法的相应实现,参考:https://github.com/PytLab/MLBox/tree/master/svm

    • 遗传算法框架GAFT项目地址: https://github.com/PytLab/gaft

     

    正文

     

    SMO中启发式选择变量

     

    在SMO算法中,我们每次需要选取一对α来进行优化,通过启发式的选取我们可以更高效的选取待优化的变量使得目标函数下降的最快。

     

    针对第一个α1和第二个α2 Platt SMO采取不同的启发式手段。

     

    第一个变量的选择

     

    第一个变量的选择为外循环,与之前便利整个αα列表不同,在这里我们在整个样本集非边界样本集间进行交替:

     

    1)首先我们对整个训练集进行遍历, 检查是否违反KKT条件,如果改点的αi和xi,yi违反了KKT条件则说明改点需要进行优化。

     

    Karush-Kuhn-Tucker(KKT)条件是正定二次规划问题最优点的充分必要条件。针对SVM对偶问题,KKT条件非常简单:

     

     

    2)在遍历了整个训练集并优化了相应的α后第二轮迭代我们仅仅需要遍历其中的非边界α. 所谓的非边界α就是指那些不等于边界0或者C的α值。 同样这些点仍然需要检查是否违反KKT条件并进行优化.

     

    之后就是不断地在两个数据集中来回交替,最终所有的α都满足KKT条件的时候,算法中止。

     

    为了能够快速选取有最大步长的α,我们需要对所有数据对应的误差进行缓存,因此特地写了个SVMUtil类来保存svm中重要的变量以及一些辅助方法:

     

    class SVMUtil(object):

        '''

        Struct to save all important values in SVM.

        '''

        def __init__(self, dataset, labels, C, tolerance=0.001):

            self.dataset, self.labels, self.C = dataset, labels, C

            self.m, self.n = np.array(dataset).shape

            self.alphas = np.zeros(self.m)

            self.b = 0

            self.tolerance = tolerance

            # Cached errors ,f(x_i) - y_i

            self.errors = [self.get_error(i) for i in range(self.m)]

        # 其他方法...

    ...

     

    下面为第一个变量选择交替遍历的大致代码,相应完整的Python实现(完整实现见https://github.com/PytLab/MLBox/blob/master/svm/svm_platt_smo.py):

     

    while (it < max_iter):

        pair_changed = 0

        if entire:

            for i in range(svm_util.m):

                pair_changed += examine_example(i, svm_util)

                print('Full set - iter: {}, pair changed: {}'.format(i, pair_changed))

        else:

            alphas = svm_util.alphas

            non_bound_indices = [i for i in range(svm_util.m)

                                 if alphas[i] > 0 and alphas[i] < C]

            for i in non_bound_indices:

                pair_changed += examine_example(i, svm_util)

        ...

    ...

     

    第二个变量的选择

     

    SMO中的第二个变量的选择过程为内循环,当我们已经选取第一个α1之后,我们希望我们选取的第二个变量α2优化后能有较大的变化。根据我们之前推导的式子

     

     

    可以知道,新的α2的变化依赖于|E1−E2|, 当E1为正时, 那么选择最小的Ei作为E2,通常将每个样本的Ei缓存到一个列表中,通过在列表中选择具有|E1−E2|的α2来近似最大化步长。

     

    有时候按照上述的启发式方式仍不能够是的函数值有足够的下降,这是按下述步骤进行选择:

     

    1. 在非边界数据集上选择能够使函数值足够下降的样本作为第二个变量

    2. 如果非边界数据集上没有,则在整个数据仅上进行第二个变量的选择

    3. 如果仍然没有则重新选择第一个α1

     

    第二个变量选取的Python实现:

     

    def select_j(i, svm_util):

        ''' 通过最大化步长的方式来获取第二个alpha值的索引.

        '''

        errors = svm_util.errors

        valid_indices = [i for i, a in enumerate(svm_util.alphas) if 0 < a < svm_util.C]

        if len(valid_indices) > 1:

            j = -1

            max_delta = 0

            for k in valid_indices:

                if k == i:

                    continue

                delta = abs(errors[i] - errors[j])

                if delta > max_delta:

                    j = k

                    max_delta = delta

        else:

            j = select_j_rand(i, svm_util.m)

        return j

     

    KKT条件允许一定的误差

     

    在Platt论文中的KKT条件的判断中有一个tolerance允许一定的误差,相应的Python实现:

     

    r = E_i*y_i

    # 是否违反KKT条件

    if (r < -tolerance and alpha < C) or (r > tolerance and alpha > 0):

        ...

     

     

    关于Platt SMO的完整实现详见:https://github.com/PytLab/MLBox/blob/master/svm/svm_platt_smo.py

     

    针对之前的数据集我们使用Platt SMO进行优化可以得到:

     

    w = [0.8289668843516077, -0.26578914269411114]

    b = -3.9292583040559448

     

    将分割线和支持向量可视化:

     

    可见通过Platt SMO优化出来的支持向量与简化版的SMO算法有些许不同。

     

    使用遗传算法优化SVM

     

    由于最近自己写了个遗传算法框架,遗传算法作为一个启发式无导型的搜索算法非常易用,于是我就尝试使用遗传算法来优化SVM。

     

    使用遗传算法优化,我们就可以直接优化SVM的最初形式了也就是最直观的形式:

     

     

    顺便再安利下自己的遗传算法框架,在此框架的帮助下,优化SVM算法我们只需要写几十行的Python代码即可。其中最主要的就是编写适应度函数,根据上面的公式我们需要计算数据集中每个点到分割线的距离并返回最小的距离即可,然后放到遗传算法中进行进化迭代。

     

    遗传算法框架GAFT项目地址: https://github.com/PytLab/gaft , 使用方法详见README。

     

    Ok, 我们开始构建种群用于进化迭代。

     

    创建个体与种群

     

    对于二维数据点,我们需要优化的参数只有三个也就是[w1,w2]和b, 个体的定义如下:

     

    indv_template = GAIndividual(ranges=[(-2, 2), (-2, 2), (-5, 5)],

                                 encoding='binary',

                                 eps=[0.001, 0.001, 0.005])

     

    种群大小这里取600,创建种群

     

    population = GAPopulation(indv_template=indv_template, size=600).init()

     

    创建遗传算子和GA引擎

     

    这里没有什么特别的,直接使用框架中内置的算子就好了。

     

    selection = RouletteWheelSelection()

    crossover = UniformCrossover(pc=0.8, pe=0.5)

    mutation = FlipBitBigMutation(pm=0.1, pbm=0.55, alpha=0.6)

    engine = GAEngine(population=population, selection=selection,

                      crossover=crossover, mutation=mutation,

                      analysis=[ConsoleOutput, FitnessStore])

     

    适应度函数

     

    这一部分只要把上面svm初始形式描述出来就好了,只需要三行代码:

     

    @engine.fitness_register

    def fitness(indv):

        w, b = indv.variants[: -1], indv.variants[-1]

        min_dis = min([y*(np.dot(w, x) + b) for x, y in zip(dataset, labels)])

        return float(min_dis)

     

    开始迭代

     

    这里迭代300代种群

     

    if '__main__' == __name__:

        engine.run(300)

     

    绘制遗传算法优化的分割线

     

    variants = engine.population.best_indv(engine.fitness).variants

    w = variants[: -1]

    b = variants[-1]

    # 分类数据点

    classified_pts = {'+1': [], '-1': []}

    for point, label in zip(dataset, labels):

        if label == 1.0:

            classified_pts['+1'].append(point)

        else:

            classified_pts['-1'].append(point)

    fig = plt.figure()

    ax = fig.add_subplot(111)

    # 绘制数据点

    for label, pts in classified_pts.items():

        pts = np.array(pts)

        ax.scatter(pts[:, 0], pts[:, 1], label=label)

    # 绘制分割线

    x1, _ = max(dataset, key=lambda x: x[0])

    x2, _ = min(dataset, key=lambda x: x[0])

    a1, a2 = w

    y1, y2 = (-b - a1*x1)/a2, (-b - a1*x2)/a2

    ax.plot([x1, x2], [y1, y2])

    plt.show()

     

    得到的分割曲线如下图:

     

    完整的代码详见: https://github.com/PytLab/MLBox/blob/master/svm/svm_ga.py

     

    总结

     

    本文对SVM的优化进行了介绍,主要实现了Platt SMO算法优化SVM模型,并尝试使用遗传算法框架GAFT对初始SVM进行了优化。

     

    参考

     

    • Sequential Minimal Optimization: A Fast Algorithm for Training Support Vector Machines

    转载于:https://www.cnblogs.com/zhangtaotqy/p/7718024.html

    展开全文
  • matlab源码
  • 遗传SVM算法

    千次阅读 2018-05-07 23:06:45
    %遗传算法求取支持向量机参数 ga_option.maxgen = 100; %最大进化代数,画出的图形为这个代数的一半 ga_option.sizepop = 50; %种群最大数量 ga_option.cbound = [0,100]; %参数c的变化范围 ga_option.gbound = [0...
    train_data=[13.8336  7.3271  6.2947  2.9990  1.2987  1.3748
    
    14.0802  7.4438  6.1213  2.6686  1.1282  1.3482
    13.8637  7.8701  6.2949  2.2442  1.3690  1.3524
    14.0618  7.3072  6.4605  2.4999  1.0339  1.3386
    13.3526  7.1324  6.6392  2.1221  1.2080  1.3472
    13.5786  7.2090  6.2003  2.3374  0.7421  1.3169
    13.8272  8.1654  6.8828  2.4842  1.0104  1.3452
    23.4350  6.7689  3.7227  1.7995  0.7451  1.0577
    23.1180  6.8822  4.0162  1.8768  0.8884  1.0891
    27.8648  7.0439  4.1263  1.7442  1.0541  1.0243
    24.1341  7.3097  4.0478  2.0285  1.3981  1.1193
    25.3430  6.6661  4.9741  2.0206  1.3277  1.1100
    23.2140  6.7087  3.7738  1.5655  0.9379  1.0635
    24.3041  6.6158  4.5139  1.9130  1.1670  1.0995
    29.4590  8.0514  2.2778  1.5340  0.7155  0.9138
    30.6207  7.8663  2.8361  1.5217  0.8910  0.9317
    27.8952  8.4306  3.1705  1.4139  0.7940  0.9782
    29.5131  7.9239  3.3737  1.7485  1.1582  0.9974
    29.6681  7.7839  3.8611  1.3718  0.9214  0.9746
    30.0431  7.7115  2.8131  1.2094  0.7996  0.9108
    30.1834  7.9658  2.6802  1.4850  0.9154  0.9323];
    train_label=[1;1;1;1;1;1;1;2;2;2;2;2;2;2;3;3;3;3;3;3;3];
    testdata=[13.6101  7.8069  7.1349  2.5897  1.0879  1.3583
    13.9343  7.2479  6.1065  2.4124  0.8581  1.3219
    13.7988  6.5283  6.1615  2.6378  1.0289  1.3419
    25.1780  7.6983  3.9359  1.6390  0.7244  1.0413
    18.8002  5.9563  3.8186  1.3544  0.7414  1.1054
    25.4770  6.6755  4.4894  1.9252  1.0640  1.0748
    29.4126  9.4013  2.8861  1.5931  0.9986  0.9839
    30.2108  8.1666  2.3105  1.2425  1.1200  0.9181
    28.5707  8.7876  2.4705  1.4557  0.7600  0.9452];
    testdatalabel=[1;1;1;2;2;2;3;3;3];
    %遗传算法求取支持向量机参数
    ga_option.maxgen = 100;  %最大进化代数,画出的图形为这个代数的一半
    ga_option.sizepop = 50;  %种群最大数量
    ga_option.cbound = [0,100]; %参数c的变化范围
    ga_option.gbound = [0,100]; %参数g的变化范围
    ga_option.v = 10;           %交叉
    ga_option.ggap = 0.9;       %变异
    [bestacc,bestc,bestg]=gaSVMcgForClass(train_label,train_data,ga_option);
    %上述命令为求得c和g的值,将两个值带入到支持向量机中
    %本次计算得到c=0.5943,g=0.0084,代入到下式中
    %支持向量机训练和识别
    model=svmtrain(train_label,train_data,'-s 0 -t 2 -c 0.55847 -g 0.080681');
    %进行预测
    [predictlabel,accuracy,dec_values]=svmpredict(testdatalabel,testdata,model);
    展开全文
  • GA+SVM的MATLAB程序

    2018-05-29 16:36:23
    Matlab遗传算法优化SVM的参数算范例子,主要调C、gamma
  • 机器建模 1)遗传算法简单介绍: 遗传算法,也叫Genetic Algorithm,简称 GA 算法他既然叫遗传算法,那么遗传之中必然有基因,那么基因染色体(Chromosome)就是它的需要调节的参数。我们在生物中了解到,大自然的法则...
  • 本发明涉及一种基于imf能量矩和遗传算法优化svm的储能电池过充诊断方法,属于储能电池故障监测领域。背景技术::在智能电网建设背景下,储能电池已经成为保证电网安全、稳定、高效运行的关键性技术,在削峰填谷、...
  • 安装相关语言环境,可以读取相关程序,在程序这中可以对比与普通遗传算法优化的支持向量机区别
  • 先画出函数图像 用figure1上工具中的数据游标...用MATLAB编写遗传算法程序求出的结果: 最大值: Besttargetfunvalue = 184.8987 对应变量值: Bestpopulation = 1.5702 >> 收敛过程图像
  • 为了进一步研究井下电波传播损耗规律,提高场强覆盖预测准确度,提出使用基于遗传算法优化的最小二乘支持向量机方法对井下巷道的场强进行预测。首先通过软件仿真生成巷道场强数据,并将数据分为训练集和测试集;然后采用...
  • 刚刚尝试在建立了SVR模型之后,再用遗传算法优化SVR的cost和gamma参数,给大家分享下,有错误的欢迎指正~rm(list = ls())# load packagelibrary(stringr)library(dplyr)library(openxlsx)# read datagase read.xlsx...
  • 针对支持向量机(SVM)参数难以选择和确定的问题,采用一种新式元启发式优化算法——多元宇宙优化算法(MVO).并在传统多元宇宙优化...研究结果表明:采用改进多元宇宙优化算法优化的支持向量机有较强的寻优性能,稳定性较好.
  • 基于变尺度的混沌遗传算法,联合优化染色体编、译码,利用混沌的遍历性产生初始种群,改进遗传算法中的交叉算子,动态缩减寻优区间。将该方法应用于短波通信控制器的诊断分类器中,以实现分类器特征子集选取和参数的...
  • 在介绍支持向量机原理和分析核参数对其分类性能影响的基础上,采用改进的“留一法”建立了SVM分类性能的适应度函数,然后,引入小生境遗传算法,在以2个个体之间的海明距离作为共享函数的基础上构建了个体共享后的适应度...
  • 完整代码已上传我的资源:【优化算法】改进的量子遗传算法(IQGA)【含Matlab源码 1615期】 获取代码方式2: 通过订阅紫极神光博客付费专栏,凭支付凭证,私信博主,可获得此代码。 备注: 订阅紫极神光博客付费专栏...
  • SVM预测】基于遗传算法优化实现SVM数据分类matlab源码.zip
  • 针对基于遗传算法(genetic algorithm,GA)的支持向量机(support vector machine,SVM)多分类决策树算法(GA-SVM)中全局优化缺陷的问题,通过重新定义遗传适应度函数(fitness),提出一种累积适应度...
  • 遗传算法优化支持向量机算法,从而更好的提高识别率和预测率

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 2,071
精华内容 828
关键字:

遗传算法优化svm