精华内容
下载资源
问答
  • 基于遗传算法优化BP神经网络的非线性拟合模型,利用数据做预测,数据代码都在压缩包里,可以直接运行。
  • 针对恒压供水系统普遍存在的非线性、大滞后和不确定的特点,设计了一种基于遗传算法BP神经网络的PID控制器,该控制器先通过遗传算法优化BP神经网络的初始权值,再利用BP神经网络的自学习和自适应能力,自动调整PID...
  • 基于遗传算法BP神经网络预测
  • BP神经网络的预测性研究来讲是个很好的案例 。
  • Matlab遗传算法优化BP神经网络程序-遗传算法优化BP神经网络程序.rar 遗传算法优化BP神经网络程序
  • 基于遗传算法BP神经网络优化算法

    万次阅读 多人点赞 2016-04-10 20:22:41
    遗传算法优化BP神经网络分为BP神经网络结构确定、遗传算法优化和 BP神经网络预测3个部分。其中,BP神经网络结构确定部分根据拟合函数输入输出参数个数确定 BP神经网络结构,这样就可以确定遗传算法的优化参数个数,...

    遗传算法优化BP神经网络分为BP神经网络结构确定、遗传算法优化和 BP神经网络预测3个部分。其中,BP神经网络结构确定部分根据拟合函数输入输出参数个数确定 BP神经网络结构,这样就可以确定遗传算法的优化参数个数,进而确定遗传算法个体的编码长度。因为遗传算法优化的参数是 BP神经网络的初始权值和阈值,只要网络的结构已知,权值和阈值的个数就已知了。种群中的每个个体都包含了一个网络所有权值和阈值,个体通过适应度函数计算个体适应度值,遗传算法通过选择、交叉和变异操作找到最优适应度值对应的个体。BP神经网络预测用遗传算法得到最优个体对网络进行初始权值和阈值的赋值,网络经训练后预测样本输出。神经网络的权值和阈值一般是通过初始化为【-0.5,0.5】区间的随机数,这个初始化参数对网络训练的影响很大,但是又无法准确获得,对于相同的初始权重值和阈值,网络的训练结果是一样的,引入遗传算法就是为了优化出最优的初始权值和阈值。
    遗传算法优化BP神经网络的算法流程如下:

    这里写图片描述

    遗传算法的基本要素包括染色体编码方法、适应度函数、遗传操作和运行参数。其中染色体编码方法是指个体的编码方法,目前包括二进制法、实数法等。二进制法是指把个体编码成为一个二进制串,实数法是指把个体编码成为一个实数串。适应度函数是指根据进化目标编写的计算个体适应度值的函数,通过适应度函数计算每个个体的适应度值,提供给选择算子进行选择。遗传操作是指选择操作、交叉操作和变异操作。运行参数是遗传算法在初始化时确定的参数,主要包括群体大小 M,遗传代数G,交叉概率Pc和变异概率Pm。(下面都是引用的MATLAB智能算法30个案例里面的内容,太多了,偷了个懒)
    

    这里写图片描述
    这里写图片描述
    这里写图片描述
    这里写图片描述
    这里写图片描述
    这里写图片描述

    下面是函数实现的代码部分:
    clc
    clear all
    close all
    %% 加载神经网络的训练样本 测试样本每列一个样本 输入P 输出T,T是标签
    %样本数据就是前面问题描述中列出的数据
    %epochs是计算时根据输出误差返回调整神经元权值和阀值的次数
    load data
    % 初始隐层神经元个数
    hiddennum=31;
    % 输入向量的最大值和最小值
    threshold=[0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1;0 1];
    inputnum=size(P,1); % 输入层神经元个数
    outputnum=size(T,1); % 输出层神经元个数
    w1num=inputnumhiddennum; % 输入层到隐层的权值个数
    w2num=outputnum
    hiddennum;% 隐层到输出层的权值个数
    N=w1num+hiddennum+w2num+outputnum; %待优化的变量的个数

    %% 定义遗传算法参数
    NIND=40; %个体数目
    MAXGEN=50; %最大遗传代数
    PRECI=10; %变量的二进制位数
    GGAP=0.95; %代沟
    px=0.7; %交叉概率
    pm=0.01; %变异概率
    trace=zeros(N+1,MAXGEN); %寻优结果的初始值

    FieldD=[repmat(PRECI,1,N);repmat([-0.5;0.5],1,N);repmat([1;0;1;1],1,N)]; %区域描述器
    Chrom=crtbp(NIND,PRECI*N); %初始种群
    %% 优化
    gen=0; %代计数器
    X=bs2rv(Chrom,FieldD); %计算初始种群的十进制转换
    ObjV=Objfun(X,P,T,hiddennum,P_test,T_test); %计算目标函数值
    while gen<MAXGEN
    fprintf(’%d\n’,gen)
    FitnV=ranking(ObjV); %分配适应度值
    SelCh=select(‘sus’,Chrom,FitnV,GGAP); %选择,随机遍历抽样
    SelCh=recombin(‘xovsp’,SelCh,px); %重组,单点交叉
    SelCh=mut(SelCh,pm); %变异
    X=bs2rv(SelCh,FieldD); %子代个体的十进制转换
    ObjVSel=Objfun(X,P,T,hiddennum,P_test,T_test); %计算子代的目标函数值
    [Chrom,ObjV]=reins(Chrom,SelCh,1,1,ObjV,ObjVSel); %重插入子代到父代,得到新种群,注意插入后新种群与老种群的规模是一样的
    %代沟只是说选择子种群的时候是选择95%的个体作为待插入的子种群
    %1,父代chrome和子代selch中的子种群个数都是1,1,基于适应度的选择,子代代替父代中适应度最小的个体
    X=bs2rv(Chrom,FieldD);%插入完成后,重新计算个体的十进制值
    gen=gen+1; %代计数器增加
    %获取每代的最优解及其序号,Y为最优解,I为个体的序号
    [Y,I]=min(ObjV);%Objv是目标函数值,也就是预测误差的范数
    trace(1:N,gen)=X(I,:); %记下每代个体的最优值,即各个权重值
    trace(end,gen)=Y; %记下每代目标函数的最优值,即预测误差的范数
    end
    %% 画进化图
    figure(1);
    plot(1:MAXGEN,trace(end,:));
    grid on
    xlabel(‘遗传代数’)
    ylabel(‘误差的变化’)
    title(‘进化过程’)
    bestX=trace(1:end-1,end);%注意这里仅是记录下了最优的初始权重,训练得到的最终的网络的权值并未记录下来
    bestErr=trace(end,end);
    fprintf([‘最优初始权值和阈值:\nX=’,num2str(bestX’),’\n最小误差err=’,num2str(bestErr),’\n’])
    %% 比较优化前后的训练&测试
    callbackfun

    子函数:
    function Obj=Objfun(X,P,T,hiddennum,P_test,T_test)
    %% 用来分别求解种群中各个个体的目标值
    %% 输入
    % X:所有个体的初始权值和阈值
    % P:训练样本输入
    % T:训练样本输出
    % hiddennum:隐含层神经元数
    % P_test:测试样本输入
    % T_test:测试样本期望输出
    %% 输出
    % Obj:所有个体的预测样本的预测误差的范数
    %这个函数的目的就是用种群中所有个体所代表的神经网络的初始权重值去进行网络的训练,训练次数是1000次,然
    %后得出所有个体作为初始权重训练网络1000次所得出的预测误差,也就是这里的obj,返回到原函数中,迭代maxgen=50次
    %记录下每一代的最优权重值和最优目标值(最小误差值)
    [M,N]=size(X);
    Obj=zeros(M,1);
    for i=1:M%M是40,即有40个个体,每个个体就是一次初始权重,在BPfun中用每个个体作为初始值去进行了1000次的训练
    Obj(i)=BPfun(X(i,:),P,T,hiddennum,P_test,T_test);%Obj是一个40*1的向量,每个值对应的是一个个体作为初始权重值去进行训练
    %网络1000次得出来的误差
    end

    function err=BPfun(x,P,T,hiddennum,P_test,T_test)
    %% 训练&测试BP网络
    %% 输入
    % x:一个个体的初始权值和阈值
    % P:训练样本输入
    % T:训练样本输出
    % hiddennum:隐含层神经元数
    % P_test:测试样本输入
    % T_test:测试样本期望输出
    %% 输出
    % err:预测样本的预测误差的范数
    %用每一个个体的初始权值去训练1000次
    inputnum=size(P,1); % 输入层神经元个数
    outputnum=size(T,1); % 输出层神经元个数
    %% 新建BP网络
    %神经网络的隐含层神经元的传递函数采用S型正切函数tansing(),输出层神经元的函数采用S型对数函数logsig()
    net=newff(minmax§,[hiddennum,outputnum],{‘tansig’,‘logsig’},‘trainlm’);
    %% 设置网络参数:训练次数为1000,训练目标为0.01,学习速率为0.1
    net.trainParam.epochs=1000;%允许最大训练次数,实际这个网络训练到迭代次数是3时就已经到达要求结束了
    net.trainParam.goal=0.01;%训练目标最小误差,应该是mean square error, 均方误差,就是网络输出和目标值的差的平方再求平均值
    LP.lr=0.1;%学习速率学习率的作用是不断调整权值阈值。w(n+1)=w(n)+LP.lr*(d(n)-y(n))x(n),d(n)是期望的相应,y(n)是
    %量化的实际响应,x(n)是输入向量,如果d(n)与y(n)相等的话,则w(n+1)=w(n),这里是指输入到隐含层的调整方式
    %隐含层到输出层的调整 Iout(j)=1/(1+exp(-I(j)));
    %dw2=e
    Iout;db2=e’;w2=w2_1+xitedw2’;e是错误值
    %b2=b2_1+xite
    db2’;xite是学习率
    %对于traingdm等函数建立的BP网络,学习速率一般取0.01-0.1之间。
    net.trainParam.show=NaN;
    % net.trainParam.showwindow=false; %高版MATLAB
    %% BP神经网络初始权值和阈值
    w1num=inputnumhiddennum; % 输入层到隐层的权值个数
    w2num=outputnum
    hiddennum;% 隐层到输出层的权值个数
    w1=x(1:w1num); %初始输入层到隐层的权值
    B1=x(w1num+1:w1num+hiddennum); %初始隐层阈值
    w2=x(w1num+hiddennum+1:w1num+hiddennum+w2num); %初始隐层到输出层的阈值
    B2=x(w1num+hiddennum+w2num+1:w1num+hiddennum+w2num+outputnum); %输出层阈值
    net.iw{1,1}=reshape(w1,hiddennum,inputnum);%输入到隐藏层的权重
    net.lw{2,1}=reshape(w2,outputnum,hiddennum);%隐藏到输出层的权重
    net.b{1}=reshape(B1,hiddennum,1);
    net.b{2}=reshape(B2,outputnum,1);
    %% 训练网络以
    net=train(net,P,T);
    %% 测试网络
    Y=sim(net,P_test);%测试样本的仿真结果
    err=norm(Y-T_test);%测试样本的仿真误差

    callbackfun函数,比较实用遗传算法和不使用遗传算法优化的结果对比
    clc
    %% 不使用遗传算法
    %% 使用随机权值和阈值
    % P:训练样本输入
    % T:训练样本标签
    % P_test:测试样本输入
    % T_test:测试样本期望输出

    inputnum=size(P,1); % 输入层神经元个数
    outputnum=size(T,1); % 输出层神经元个数
    %% 新建BP网络
    net=newff(minmax§,[hiddennum,outputnum],{‘tansig’,‘logsig’},‘trainlm’);
    %% 设置网络参数:训练次数为1000,训练目标为0.01,学习速率为0.1
    net.trainParam.epochs=1000;
    net.trainParam.goal=0.01;
    LP.lr=0.1;
    %% 训练网络以
    net=train(net,P,T);
    %% 测试网络
    disp(['1、使用随机权值和阈值 '])
    disp(‘测试样本预测结果:’)
    Y1=sim(net,P_test)%测试样本的网络仿真输出
    err1=norm(Y1-T_test); %测试样本的仿真误差
    err11=norm(sim(net,P)-T); %训练样本的仿真误差
    disp([‘测试样本的仿真误差:’,num2str(err1)])
    disp([‘训练样本的仿真误差:’,num2str(err11)])

    %% 使用遗传算法
    %% 使用优化后的权值和阈值,利用遗传算法得出来的最优的初始权重和阈值去进行网络的初始化
    inputnum=size(P,1); % 输入层神经元个数
    outputnum=size(T,1); % 输出层神经元个数
    %% 新建BP网络
    net=newff(minmax§,[hiddennum,outputnum],{‘tansig’,‘logsig’},‘trainlm’);
    %% 设置网络参数:训练次数为1000,训练目标为0.01,学习速率为0.1
    net.trainParam.epochs=1000;
    net.trainParam.goal=0.01;
    LP.lr=0.1;
    %% BP神经网络初始权值和阈值
    w1num=inputnumhiddennum; % 输入层到隐层的权值个数
    w2num=outputnum
    hiddennum;% 隐层到输出层的权值个数
    w1=bestX(1:w1num); %初始输入层到隐层的权值
    B1=bestX(w1num+1:w1num+hiddennum); %初始隐层阈值
    w2=bestX(w1num+hiddennum+1:w1num+hiddennum+w2num); %初始隐层到输出层的阈值
    B2=bestX(w1num+hiddennum+w2num+1:w1num+hiddennum+w2num+outputnum); %输出层阈值
    net.iw{1,1}=reshape(w1,hiddennum,inputnum);
    net.lw{2,1}=reshape(w2,outputnum,hiddennum);
    net.b{1}=reshape(B1,hiddennum,1);
    net.b{2}=reshape(B2,outputnum,1);
    %% 训练网络以
    net=train(net,P,T);
    %% 测试网络
    disp([‘2、使用优化后的权值和阈值’])
    disp(‘测试样本预测结果:’)
    Y2=sim(net,P_test)%测试样本的仿真输出
    err2=norm(Y2-T_test);%测试样本的仿真误差
    err21=norm(sim(net,P)-T);%训练样本的仿真误差
    disp([‘测试样本的仿真误差:’,num2str(err2)])
    disp([‘训练样本的仿真误差:’,num2str(err21)])

    运行的结果:
    1、使用随机权值和阈值
    测试样本预测结果:

    Y1 =

    0.8823    0.0030    0.0490
    0.0057    0.9545    0.0103
    0.0000    0.0000    0.9551
    

    2、使用优化后的权值和阈值
    测试样本预测结果:

    Y2 =

    0.9805    0.0180    0.0234
    0.0319    0.9813    0.0154
    0.0121    0.0299    0.9718
    

    测试样本的仿真误差:0.048476
    训练样本的仿真误差:0.1262

    这里写图片描述

    测试样本的仿真误差:0.12883 训练样本的仿真误差:0.22123 之所以训练样本的误差反而更大的原因是训练样本是多于测试样本的,这里训练样本的个数是9个,而测试样本的个数是3个,所以积累的误差比较多。
    这里程序运行所使用的数据及程序我在资源里有上传,可以下载使用学习。

    后记:::BP神经网络——与validation check相关
    ​​在使用神经网络建模过程中,默认把样本随机分为3类:训练样本,验证样本和测试样本。验证样本的检查值默认是6,是指在网络利用训练样本进行训练的过程中,验证样本的误差连续6次迭代不再下降。则,训练终止(这只是训练终止条件之一,其他的如训练步数,目标误差等,满足任一条件,训练过程都将终止)。我们可以这样理解,如果随着网络的训练,验证样本的误差已经基本不再减小,甚至增大,那么就没有必要再去训练网络了。因为即使继续训练下去,当我们利用测试样本进行网络测试时,测试样本的误差同样也不会有所改善,甚至会过度拟合。validation checks已经达到设置的值了,所以网络停止训练,即如果网络在连续max_fail epochs后不能提高网络性能,就停止训练。
    
    通常,有三种方法解决这个问题:
    
    1.提高validation checks的数值,比如设置net.trainParam.max_fail = 200,其实,这就是自己糊弄自己,非常不严谨,严重不推荐。训练时候,出现停止这种情况,就是因为被训练的网络出现了问题,已经过拟合,应该停下来。但6,的确,可能,有点小,建议改为10到20之间的数吧?这个需要细细思量一下,一般情况默认就好吧?
    
    2.修改被训练的网络,比如说再加一个隐藏层试试
    
    3.如果是数据太相近的问题,试试选择用输入训练数据的乱序排法,以及分类​
    

    divideblock,divideind,divideint和dividerand分别是block方法抽取、按数组标号自定义抽取、交错索引抽取和随机抽.
    
    [trainV,valV,testV,trainInd,valInd,testInd] =divideblock(allV,trainRatio,valRatio,testRatio)[训练数据,变量数据,测试数据,训练数据矩阵的标号,变量数据标号,测试数据标号] =divideblock(所有数据,训练数据百分比,变量数据百分比,测试数据百分比)通过设置网络的divideFcn函数来实现,比如,net.divideFcn='divideblock',但不是说不可以在代码中像dividevec直接调用
    

    我们要明白它为什么要停止。连续6次误差不断增大,说明网络性能越训练越差。这可能是两方面原因:
    
    1.过拟合。网络学习得太好了,反而泛化能力下降。
    
    2.网络规模不够大,信息存储能力不够强,原先学习的知识又被新样本抹去了,导致网络性能无法提升。
    
    要解决这个问题:
    
    1.如果要改变validation的验证次数,可以用这个语句net.trainParam.max_fail = 20;  
    
    2.或者是增多隐节点或隐层数。
    
    另外,提前停止的网络虽然陷入局优,但不一定就不能用吧,看一下实际效果;
    
    一般来说,不下降就是增大,不可能误差不变。数据少就降低隐层节点数。​
    
    展开全文
  • 遗传算法优化BP神经网络算法代码dai附件-利用遗传算法优化BP神经网络权值和阈值.rar 大家好:  为了感谢大家对我的帮助,我把自己搜集到的有关遗传算法优化BP神经网络算法的代码发给大家。这里有些是从网络上...
  • 主要介绍退火遗传算法优化BP神经网络代码,实现优化功能
  • 基于遗传算法优化的BP神经网络是科研中的常用方法,通过遗传算法优化初始神经网络的权值阈值,使模型更快收敛,同时降低陷入局部最优的可能,本资源代码中,只需更改加载数据,拿来即用。
  • 遗传算法BP神经网络优化算法
  • 遗传 算法 优化 BP 神经 网络,自己手敲的代码。 遗传 算法 优化 BP 神经 网络,自己手敲的代码。 遗传 算法 优化 BP 神经 网络,自己手敲的代码。
  • 遗传算法优化BP神经网络分为BP神经网络结构确定、遗传算法优化和 BP神经网络预测3个部分。其中,BP神经网络结构确定部分根据拟合函数输入输出参数个数确定 BP神经网络结构,这样就可以确定遗传算法的优化参数个数,...

    遗传算法优化BP神经网络分为BP神经网络结构确定、遗传算法优化和 BP神经网络预测3个部分。其中,BP神经网络结构确定部分根据拟合函数输入输出参数个数确定 BP神经网络结构,这样就可以确定遗传算法的优化参数个数,进而确定遗传算法个体的编码长度。因为遗传算法优化的参数是 BP神经网络的初始权值和阈值,只要网络的结构已知,权值和阈值的个数就已知了。种群中的每个个体都包含了一个网络所有权值和阈值,个体通过适应度函数计算个体适应度值,遗传算法通过选择、交叉和变异操作找到最优适应度值对应的个体。BP神经网络预测用遗传算法得到最优个体对网络进行初始权值和阈值的赋值,网络经训练后预测样本输出。神经网络的权值和阈值一般是通过初始化为【-0.5,0.5】区间的随机数,这个初始化参数对网络训练的影响很大,但是又无法准确获得,对于相同的初始权重值和阈值,网络的训练结果是一样的,引入遗传算法就是为了优化出最优的初始权值和阈值。

    遗传算法的基本要素包括染色体编码方法、适应度函数、遗传操作和运行参数。其中染色体编码方法是指个体的编码方法,目前包括二进制法、实数法等。二进制法是指把个体编码成为一个二进制串,实数法是指把个体编码成为一个实数串。适应度函数是指根据进化目标编写的计算个体适应度值的函数,通过适应度函数计算每个个体的适应度值,提供给选择算子进行选择。遗传操作是指选择操作、交叉操作和变异操作。运行参数是遗传算法在初始化时确定的参数,主要包括群体大小 M,遗传代数G,交叉概率Pc和变异概率Pm。(下面都是引用的MATLAB智能算法30个案例里面的内容,太多了,偷了个懒)

      后面的内容就是遗传算法优化BP神经网络部分了。所以整个的整篇博客由三部分组成,分别是遗传算法优化BP神经网络前,遗传算法优化BP神经网络,和遗传算法优化BP神经网络三部分。由于编辑器的原因在一篇中不能完全显示出来。

    展开全文
  • 遗传算法优化BP神经网络-遗传算法优化BP.rar 遗传算法优化BP.rar 我有输入和输出数据,想用遗传算法优化BP网络的方法对这些数据进行训练,要求测试相对误差,我用《matlab三十案例》里现成的...
  • 利用遗传算法优化BP神经网络模型对数据进行仿真训练,可以对变形监测数据以及其他领域的数据进行预测,实验结果表明遗传算法优化BP神经网络模型比BP神经网络模型有着更好的预测精度,代码是基于matlab语言自己写的,...
  • 运用到汽车加油量计算中,通过比较标准BP网络、Srinivas提出的自适应遗传算法优化的BP神经网络和改进的自适应遗传算法优化的BP神经网络3种模型的计算误差,验证得出改进的自适应遗传算法优化BP神经网络的算法优于...
  • Matlab 遗传算法优化BP神经网络

    万次阅读 多人点赞 2018-05-17 21:46:36
    最近在学遗传算法优化BP神经网络,从新浪博客,Matlab中文论坛以及《MATLAB神经网络43个案例分析》里看了许多资料, 存在着缺少test函数,以及函数名调用错误等问题。自编了test函数,调整后,供大家参考,(在...

    最近在学遗传算法优化BP神经网络,从新浪博客,Matlab中文论坛以及《MATLAB 神经网络43个案例分析》里看了许多资料, 存在着缺少test函数,以及函数名调用错误等问题。自编了test函数,调整后,供大家参考,(在Matlab2006a亲测可行)。

    参考文献:

    MATLAB神经网络的43个案例分析》 王小川,史峰,郁磊等,北京航空航天大学出版社。

    flyingnosky的sina博客 http://blog.sina.com.cn/s/blog_892508d501014trs.html#cmt_5397B6AA-7F000001-A3B5FCF1-7DC-8A0

     

    1、数据准备

       随机生成2000组两维随机数(x1,x2),并计算对应的输出y=x1^2+x2^2,前1500组数据作为训练数据input_train,后500组数 据作为测试数据input_test。

    N=2000;            %数据总个数

    M=1500;            %训练数据

    for i=1:N
        input(i,1)=-5+rand*10;
        input(i,2)=-5+rand*10;
    end
    output=input(:,1).^2+input(:,2).^2;

    save data input output

    2、main(遗传算法主程序)

     tic
    clear;
    clc;
    load data.mat
    inputnum=2;
    hiddennum=5;
    outputnum=1;
    input_train=input(1:1500,:)';
    input_test=input(1501:2000,:)';
    output_train=output(1:1500)';
    output_test=output(1501:2000)';
    [inputn,inputps]=mapminmax(input_train);
    [outputn,outputps]=mapminmax(output_train);
    net=newff(inputn,outputn,hiddennum,{'tansig','purelin'},'trainlm'); %%{'tansig','purelin'}为默认的激活函数(没记错的话,有兴趣的话可以试着进行调整,trainlm为默认的训练算法,Levenberg-Marquart算法)
    %% 遗传算法参数初始化
    maxgen=10;                         %进化代数,即迭代次数
    sizepop=30;                        %种群规模
    pcross=0.3;                       %交叉概率选择,0和1之间

    pmutation=0.1;                    %变异概率选择,0和1之间

    numsum=inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum;
    lenchrom=ones(1,numsum);       
    bound=[-3*ones(numsum,1) 3*ones(numsum,1)];    %数据范围
    individuals=struct('fitness',zeros(1,sizepop), 'chrom',[]);  %将种群信息定义为一个结构体
    avgfitness=[];                      %每一代种群的平均适应度
    bestfitness=[];                     %每一代种群的最佳适应度
    bestchrom=[];                       %适应度最好的染色体

    for i=1:sizepop                                  %随机产生一个种群
        individuals.chrom(i,:)=Code(lenchrom,bound);    %编码
        x=individuals.chrom(i,:);                     %计算适应度
        individuals.fitness(i)=fun(x,inputnum,hiddennum,outputnum,net,inputn,outputn);   %染色体的适应度
    end

    [bestfitness bestindex]=min(individuals.fitness);
    bestchrom=individuals.chrom(bestindex,:);  %最好的染色体
    avgfitness=sum(individuals.fitness)/sizepop; %染色体的平均适应度                              
    trace=[avgfitness bestfitness]; % 记录每一代进化中最好的适应度和平均适应度

     for num=1:maxgen
        % 选择  
         individuals=select(individuals,sizepop);   
        avgfitness=sum(individuals.fitness)/sizepop; 
        %交叉  
        individuals.chrom=Cross(pcross,lenchrom,individuals,sizepop,bound);  
        % 变异  
        individuals.chrom=Mutation(pmutation,lenchrom,individuals,sizepop,num,maxgen,bound);      
        % 计算适应度   
       
        for j=1:sizepop  
            x=individuals.chrom(j,:); %个体 
            individuals.fitness(j)=fun(x,inputnum,hiddennum,outputnum,net,inputn,outputn);     
        end  
        %找到最小和最大适应度的染色体及它们在种群中的位置
        [newbestfitness,newbestindex]=min(individuals.fitness);
        [worestfitness,worestindex]=max(individuals.fitness);
        % 代替上一次进化中最好的染色体
    if bestfitness>newbestfitness
            bestfitness=newbestfitness;
            bestchrom=individuals.chrom(newbestindex,:);
        end
        individuals.chrom(worestindex,:)=bestchrom;
        individuals.fitness(worestindex)=bestfitness;
        avgfitness=sum(individuals.fitness)/sizepop;
        trace=[trace;avgfitness bestfitness]; %记录每一代进化中最好的适应度和平均适应度
     end
     
     figure(1)
    [r c]=size(trace);
    plot([1:r]',trace(:,2),'b--');
    title(['适应度曲线  ' '终止代数=' num2str(maxgen)]);
    xlabel('进化代数');ylabel('适应度');
    legend('平均适应度','最佳适应度');
    disp('适应度                   变量');
      

    %% 把最优初始阀值权值赋予网络预测

    % %用遗传算法优化的BP网络进行值预测

    x=bestchrom;
    w1=x(1:inputnum*hiddennum);
    B1=x(inputnum*hiddennum+1:inputnum*hiddennum+hiddennum);
    w2=x(inputnum*hiddennum+hiddennum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum);
    B2=x(inputnum*hiddennum+hiddennum+hiddennum*outputnum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum);

    net.iw{1,1}=reshape(w1,hiddennum,inputnum);
    net.lw{2,1}=reshape(w2,outputnum,hiddennum);
    net.b{1}=reshape(B1,hiddennum,1);
    net.b{2}=reshape(B2,outputnum,1);

    %% BP网络训练
    %网络参数
    net.trainParam.epochs=100;
    net.trainParam.lr=0.1;
    net.trainParam.goal=0.00001;

    net.divideParam.trainRatio = 75/100;   %默认训练集占比
    net.divideParam.valRatio = 15/100;      %默认验证集占比
    net.divideParam.testRatio = 15/100;     %默认测试集占比

    %网络训练
    [net,per2]=train(net,inputn,outputn);

    %% BP网络预测
    %数据归一化
    inputn_test=mapminmax('apply',input_test,inputps);
    an=sim(net,inputn_test);
    test_simu=mapminmax('reverse',an,outputps);
    error=test_simu-output_test;

    figure(2)
    plot(test_simu,':og','LineWidth',1.5)
    hold on
    plot(output_test,'-*','LineWidth',1.5);
    legend('预测输出','期望输出')
    grid on
    set(gca,'linewidth',1.0);
    xlabel('X 样本','FontSize',15);
    %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
    ylabel('Y 输出','FontSize',15);
    %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
    set(gcf,'color','w')
    %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
    title('GA-BP Network','Color','k','FontSize',15);

    toc

    3、Code函数(编码)

    function ret=Code(lenchrom,bound)
    %本函数将变量编码成染色体,用于随机初始化一个种群
    % lenchrom   input : 染色体长度
    % bound      input : 变量的取值范围
    % ret        output: 染色体的编码值
        pick=rand(1,length(lenchrom));

        ret=bound(:,1)'+(bound(:,2)-bound(:,1))'.*pick; %线性插值,编码结果以实数向量存入ret中

    4、fun函数(BP神经网络预测,记录预测误差)

    function error = fun(x,inputnum,hiddennum,outputnum,net,inputn,outputn)
    %该函数用来计算适应度值
    %x          input     个体
    %inputnum   input     输入层节点数
    %outputnum  input     隐含层节点数
    %net        input     网络
    %inputn     input     训练输入数据
    %outputn    input     训练输出数据
    %error      output    个体适应度值
    %提取
    w1=x(1:inputnum*hiddennum);
    B1=x(inputnum*hiddennum+1:inputnum*hiddennum+hiddennum);
    w2=x(inputnum*hiddennum+hiddennum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum);
    B2=x(inputnum*hiddennum+hiddennum+hiddennum*outputnum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum);
    net=newff(inputn,outputn,hiddennum);
    %网络进化参数
    net.trainParam.epochs=20;
    net.trainParam.lr=0.1;
    net.trainParam.goal=0.00001;
    net.trainParam.show=100;
    net.trainParam.showWindow=0;
    %网络权值赋值
    net.iw{1,1}=reshape(w1,hiddennum,inputnum);

    net.lw{2,1}=reshape(w2,outputnum,hiddennum);

    net.b{1}=reshape(B1,hiddennum,1);

    net.b{2}=reshape(B2,outputnum,1);

    %网络训练

    net=train(net,inputn,outputn);
    an=sim(net,inputn);

    error=sum(sum(abs(an-outputn)));

    %%fun函数这里需要注意,error一定要是一个数值,不能是矩阵

    5、select函数(选择)

    function ret=select(individuals,sizepop)
    % 该函数用于进行选择操作
    % individuals input    种群信息
    % sizepop     input    种群规模
    % ret         output   选择后的新种群
    %求适应度值倒数  
    fitness1=10./individuals.fitness; %individuals.fitness为个体适应度值
    %个体选择概率
    sumfitness=sum(fitness1);
    sumf=fitness1./sumfitness;
    %采用轮盘赌法选择新个体
    index=[];
    for i=1:sizepop   %sizepop为种群数
        pick=rand;
        while pick==0   
            pick=rand;       
        end
        for j=1:sizepop   
            pick=pick-sumf(j);       
            if pick<0       
                index=[index j];           
                break; 
            end
      end
    end
    %新种群
    individuals.chrom=individuals.chrom(index,:);   %individuals.chrom为种群中个体
    individuals.fitness=individuals.fitness(index);

    ret=individuals;

    6、cross函数(交叉)

    function ret=Cross(pcross,lenchrom,individuals,sizepop,bound)
    %本函数完成交叉操作
    % pcorss                input  : 交叉概率
    % lenchrom              input  : 染色体的长度
    % individuals.chrom     input  : 染色体群
    % sizepop               input  : 种群规模
    % ret                   output : 交叉后的染色体
     for i=1:sizepop  %每一轮for循环中,可能会进行一次交叉操作,染色体是随机选择的,交叉位置也是随机选择的,
                      %但该轮for循环中是否进行交叉操作则由交叉概率决定(continue控制)        
        pick=rand(1,2);   % 随机选择两个染色体进行交叉
         while prod(pick)==0       %连乘
             pick=rand(1,2);
         end
         index=ceil(pick.*sizepop);  % 交叉概率决定是否进行交叉
        pick=rand;
         while pick==0
             pick=rand;
         end
         if pick>pcross
             continue;
         end
             % 随机选择交叉位
             pick=rand;
             while pick==0
                 pick=rand;
             end
             flag=0;
           while flag==0
             pos=ceil(pick*length(lenchrom)); %随机选择进行交叉的位置,即选择第几个变量进行交叉,注意:两个染色体交叉的位置相同
             pick=rand; %交叉开始
             v1=individuals.chrom(index(1),pos);
             v2=individuals.chrom(index(2),pos);
             individuals.chrom(index(1),pos)=pick*v2+(1-pick)*v1;
             individuals.chrom(index(2),pos)=pick*v1+(1-pick)*v2; %交叉结束
        
             flag1=test(individuals.chrom(index(1),:));  %检验染色体1的可行性
             flag2=test(individuals.chrom(index(2),:));  %检验染色体2的可行性
             
             if   flag1*flag2==0
                 flag=0;
             else flag=1;
             end    %如果两个染色体不是都可行,则重新交叉
            end    
     end

    ret=individuals.chrom;

    7、mutation函数(变异)

    function ret=Mutation(pmutation,lenchrom,individuals,sizepop,num,maxgen,bound)
    % 本函数完成变异操作
    % pcorss                input  : 变异概率
    % lenchrom              input  : 染色体长度
    % individuals.chrom     input  : 染色体
    % sizepop               input  : 种群规模
    % opts                  input  : 变异方法的选择
    % pop                   input  : 当前种群的进化代数和最大的进化代数信息
    % bound                 input  : 每个个体的上届和下届
    % maxgen                input  :最大迭代次数
    % num                   input  : 当前迭代次数
    % ret                   output : 变异后的染色体

    for i=1:sizepop   %每一轮for循环中,可能会进行一次变异操作,染色体是随机选择的,变异位置也是随机选择的,
        %但该轮for循环中是否进行变异操作则由变异概率决定(continue控制)
        % 随机选择一个染色体进行变异
        pick=rand;
        while pick==0
            pick=rand;
        end
        index=ceil(pick*sizepop);
        % 变异概率决定该轮循环是否进行变异
        pick=rand;
        if pick>pmutation
            continue;
        end
        flag=0;
        while flag==0
            % 变异位置
            pick=rand;
            while pick==0     
                pick=rand;
            end
            pos=ceil(pick*sum(lenchrom));  %随机选择了染色体变异的位置,即选择了第pos个变量进行变异
            pick=rand; %变异开始    
            fg=(pick*(1-num/maxgen))^2;
            if pick>0.5
                individuals.chrom(index,pos)=individuals.chrom(index,pos)+(bound(pos,2)-individuals.chrom(index,pos))*fg;
            else
                individuals.chrom(index,pos)=individuals.chrom(index,pos)-(individuals.chrom(index,pos)-bound(pos,1))*fg;
            end   %变异结束
            flag=test(individuals.chrom(index,:));  %检验染色体的可行性
        end
    end

    ret=individuals.chrom;

    8、test函数(判断阈值和权值是否超界)

    function flag=test(chrom)
    %此函数用来判断individuals.chrom里数值是否超过边界bound
    %bound在main里定义为(-3:3)
    %flag       output     染色体可行(未超界)output为1 ,不可行为0
    f1=isempty(find(chrom>3));
    f2=isempty(find(chrom<-3));
    if f1*f2==0
        flag=0;
    else
        flag=1;
    end

     


    以上这段代码是之前学习神经时的总结,后面又发现了一些问题,有很多地方都在使用“BP神经网络”这个名词,恩,有专家说这个名词是有问题的,BP是神经网络里面调节权重和阈值的一种算法,不能算是神经网络的结构,像上文中的这种神经网络应该被称为多层前馈神经网络(multilayer feedforward neural network),虽然上文中的神经网络结构只有三层。

    有用上面代码测试过其他较复杂数据的可能会发现上面代码跑起来要耗费许多时间,有网友给我发了一个遗传算法工具箱(gaot),我测试了一下,发现跑得飞起。参考了里面对代价函数的写法,将fun函数改成了下面这个样子:


    fun 函数(新)

    function error=fun(x,inputnum,hiddennum,outputnum,net,inputn,outputn)

    %该函数用来计算适应度值

    %x          input     个体

    %inputnum   input     输入层节点数

    %outputnum  input     隐含层节点数

    %net        input     网络

    %inputn     input     训练输入数据

    %outputn    input     训练输出数据

    %error      output    个体适应度值

    %提取
    w1=x(1:inputnum*hiddennum);
    B1=x(inputnum*hiddennum+1:inputnum*hiddennum+hiddennum);
    w2=x(inputnum*hiddennum+hiddennum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum);
    B2=x(inputnum*hiddennum+hiddennum+hiddennum*outputnum+1:inputnum*hiddennum+hiddennum+hiddennum*outputnum+outputnum);
    %网络权值赋值
    W1=reshape(w1,hiddennum,inputnum);
    W2=reshape(w2,outputnum,hiddennum);
    B1=reshape(B1,hiddennum,1);
    B2=reshape(B2,outputnum,1);
    [m n]=size(inputn);
    A1=tansig(W1*inputn+repmat(B1,1,n));   %需与main函数中激活函数相同
    A2=purelin(W2*A1+repmat(B2,1,n));      %需与main函数中激活函数相同  
    error=sumsqr(outputn-A2);


    将fun函数改成这样,运行速度会快很多,对比之前的fun函数,会发现这里没有搭建神经网络,没有误差后向传播的过程,运行时间大大缩减。误差后向传播来调节权值和阈值的经典算法是BP算法(又名梯度下降算法),看过matlab函数说明的同学会发现里面默认的算法是Levenberg-Marquardt(LM算法),有兴趣的同学可以找相关资料自行学习。

    更新于2018年11月18日


    更新一些神经网络的默认设置,之前对我造成了很大的困扰:

    newff 函数, 本文使用的是新语法,网上的很多资料是基于旧的语法写的,在新版本上也是可以跑的,没有问题。

    新的语法形式会把训练数据默认随机分成三组,训练集占比75%,验证集和测试集均占15%,误差表现是以验证集为基准,由于随机导致每次的误差的表现不一样,有这样一组参数可以控制:

    net.divideParam.trainRatio = 75/100;
    net.divideParam.valRatio = 15/100;
    net.divideParam.testRatio = 15/100;

    数值可调,详细的帮助文档见 help nnproperty.net_divideParam。

    更新于2019年1月17日。

     



    更新一些新的认知(部分个人见解,仅供参考):

    1.关于神经网络的语法问题

              网上的资料大多参考是之前的书籍,之前说newff已经使用了新的语法规则,newff这函数在matlab 2010b 已经被放弃了,新的函数叫feedforwardnet, 参考2010后的书,可能使用的就是feedwardnet 函数。好的是,在matlab后续版本里newff还是可以用的。在使用时,发现newff 里面是有默认的归一化函数(mapminmax)的,所以像上文那样再神经网络之前进行归一化处理,训练完再进行反归一化操作是没有必要的。也测试了一下数据,没有发现大的差异。上面的代码主要来自《MATLAB神经网络的43个案例分析》,估计写书的时候,newff还没这个功能。

              (可以在命令行 help newff 查看newff的介绍)

    2.遗传算法与神经网络的训练

        2.1 关于遗传算法的参数问题: (来自《基于MATLAB 和遗传算法的图像处理》,西安电子科技大学出版社,鱼滨等)

                 种群规模:20-100

                 交叉概率:0.6-0.9

                  变异概率:0.005-0.025

                 最大进化次数:100-500(视情况而定)

           2.2  优化效果

                我在使用这串代码时发现添加遗传算法,结果并没有提升很多,搜了一众论文,发现大多论文里面使用的训练算法都是traingd, 这个训练算法收敛很慢,感觉它一直在最小值附近转悠。我将默认的trainlm 换成traingd 后 果然发现了点儿优化效果,个人感觉主要原因是迭代次数较少,traingd这方法不够靠谱。

    然而我就是想用trainlm ,后面又考虑为了在代价函数里添加正则化因子(net.performParam.regularization);发现正则化因子的大小不太好确定。搜神经网络正则化的论文时发现,大量论文都是贝叶斯正则化神经网络,使用的差异就在它的训练参数是trainbr。这个算法修改了网络的代价函数,训练算法使用的还是LM,相当于trainlm 的一个进化版。在使用这个算法后,我发现遗传算法有点效果了。

               从我自己的数据看,优化是有那么点效果的。曾经一度我是怀疑为什么要用遗传算法,耗时还没啥用,感觉那些发出去的论文都在骗我。后来在论文中看到,不使用遗传算法时,通常的操作是将神经网络重复跑,他们说一般跑5次取最好的结果,以此来避免神经网络陷入局部极小值。之前对俩个版本的fun函数进行过说明,从这个角度看,书里的那种fun函数写法感觉更靠谱点。之前一直觉得这种写法很流氓,fun(新)的写法更得我心。后来想想还是流氓点好。细心的朋友可以发现书作者还是有套路的,主函数里的神经网络迭代次数100,到了fun函数里只有20了。使用fun函数时需要注意将训练参数,数据的分割调整至和主函数一致。

    3. 其他  

        一些网友在使用自己的数据时,发现了一些错误,大多都是神经网络的输入和输出没有调好,这边给大家推荐一篇博文:

    https://www.cnblogs.com/sallybin/p/3169572.html   

        对神经网络的输入和输出说得非常清楚,在我当初学习时,给我提供了极大的帮助。

     

       在matlab上使用神经网络时,可以参考帮助里的一篇指导,写得非常细致

    《Multilayer Neural Networks and Backpropagation Training》

     从MATLAB 里搜索文档即可找到。

     

    祝大家学习愉快!!!

    更新于2019年4月19日

     

               

    展开全文
  • 遗传算法优化BP神经网络-遗传算法优化BP-0710.rar 遗传算法优化BP.rar 我有输入和输出数据,想用遗传算法优化BP网络的方法对这些数据进行训练,要求测试相对误差,我用《matlab三十案例》里...
  • 基于遗传算法BP神经网络的股票预测模型 摘要 在目前的股票投资市场,不少自然人股民的投资主要方式使根据对当天或者一个较长周期对股票数据的预测,来得到下一天的股票数据,从而进行相应的投资。为了满足股民...

    摘要

    在目前的股票投资市场,不少自然人股民的投资主要方式使根据对当天或者一个较长周期对股票数据的预测,来得到下一天的股票数据,从而进行相应的投资。为了满足股民希望能更为理性合理准确的预测股票走向,需要借助机器的帮助。本文主要是利用优化过的遗传算法,利用遗传算法调整BP三层神经网络的权重与阈值,使BP神经网络的训练效果得到提升,从而对股票市场的行情有比较好的预测效果。

    关键词 BP神经网络 遗传算法 特征选取

    实验论文节选

    bp神经网络

    bp神经网络

    遗传算法

    遗传算法

    遗传算法的过程:
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    实验结果与分析

    3.1 实验设置
    3.1.1 股票数据库的选择
    本实验使用了两种股票种类,为某单支股票(150个)数据与上证综合指数前复权日线(533个)数据,分别保存在两个文件中,将两个数据集的特征向量人工设定为同一列位置,方便后续实验。

    3.1.2 实验参数设置
    本次实验在Matlab环境上运行,分析给予遗传算法的BP神经网络与随机初始化的BP神经网络在股票预测上的差距。
    本次实验所采用的为BP神经网络:训练次数epochs为1000,训练目标goal为0.01,学习速率lr为0.1;遗传算法:群体规模为N=60。

    3.2 实验结果与分析
    实验1:测试未优化的遗传算法运行的预测效果
    本次实验,隐含层神经元个数为3,交叉概率为p_c=0.8,变异概率为p_m=0.05,交叉位置为15L到20L。迭代次数分别设为10次,50次,100次,比较区别。

    在这里插入图片描述
    本次测试出的每一代的最小误差波动很大,而且随着迭代次数的增加,最新一带的最小误差没有明显减小,达不到预期效果。

    实验2:测试带指标变异操作的遗传算法优化的预测效果
    本次实验,隐含层神经元个数为3,群体规模为N=60,交叉概率为p_c=0.8,变异概率为p_m=0.05,双点交叉,交叉位置为15L到20L。迭代次数分别设为10次,50次,100次,比较区别。
    在这里插入图片描述
    在这里插入图片描述
    本次测试出的每一代的最小误差虽然波动很大,但是可以看出随着迭代次数的增加,最后一代的最小误差有下降的趋势,但是容易陷入局部最优解,可能使由于参数设置的问题。

    实验3:测试优劣同时保留的遗传算法优化的预测效果
    本次实验,隐含层神经元个数为3,群体规模为N=60,交叉概率为p_c=0.8,变异概率为p_m=0.05,交叉位置为15L到20L。迭代次数分别设为10次,50次,100次,比较区别。
    在这里插入图片描述
    在这里插入图片描述
    本次测试出的每一代的最小误差虽然还是有波动,但是较前两个实验,已经是降低的趋势了,最优误差也是下降的趋势,说明此优化可以帮助算法跳出局部最差解,逼近局部最优解。

    实验4:测试大变异值的自适应的遗传算法优化的预测效果
    本次实验,隐含层神经元个数为3,群体规模为N=60,交叉概率为p_c=0.8,交叉位置为15L到20L。迭代次数分别设为10次,50次,100次,比较区别。
    在这里插入图片描述
    在这里插入图片描述
    本次测试出的每一代的最小误差波动相较前几个实验,波动十分巨大,但是产生当前最优解的个数是最大的,说明可以帮助算法跳出局部最优解。

    实验5:遗传算法不同参数的遗传算法优化的预测效果

    可以看出,虽然最终的最终误差相差很小,但是种群个数为100的遗传算法明显要比种群个数为60的遗传算法收敛效果要好,相应的,算法的运行时间也有所增加。

    实验6:BP神经网络算法不同参数的预测效果
    在这里插入图片描述
    可以看出,隐含层神经元个数为3个时,BP神经网络的预测效果更好。


    股票预测模型实验结果对比:实验结果选取证综合指数前复权日线数据的总预测曲线。
    在这里插入图片描述
    在这里插入图片描述图1 普通BP神经网络的预测效果
    图1中,绿色线为股票真实值。可以看出,进行4次的普通BP神经网络算法的预测,预测效果十分不稳定。

    在这里插入图片描述
    图2 优化BP神经网络的预测效果
    图2中,绿色线为股票真实值,红色线为带指标变异操作的遗传算法优化后的BP神经网络的预测值,蓝色线为优劣同时保留的遗传算法优化后的BP神经网络的预测值,黑色线为普通遗传算法优化后的BP神经网络的预测值,紫色线为大变异值的自适应的遗传算法优化后的BP神经网络的预测值。可以看出,这四次实验的预测效果比普通BP神经网络算法的预测效果稳定很多,也更为准确。

    在这里插入图片描述
    在这里插入图片描述图3 优化BP神经网络的预测效果(放大节选)
    从图3中,可以看出,预测效果的最好的是优劣同时保留的遗传算法优化后的BP神经网络,其次是带指标变异操作的遗传算法优化后的BP神经网络,然后是普通遗传算法优化后的BP神经网络,最差的是大变异值的自适应的遗传算法优化后的BP神经网络。

    针对以上实验,可以得知,在遗传算法的优化下BP神经网络的预测值明显比未优化的普通BP神经网络的预测值更为准确和稳定。更进一步对遗传算法进行优化,优化的关键点在于遗传算法的选择、交叉、变异三大操作,优化后预测的准确度也有了进一步的提升

    参考到的资料
    https://download.csdn.net/download/u010667861/9617803
    [1] 史峰,王辉,郁磊,胡斐. MATLAB智能算法30个案例分析——基于遗传算法的BP神经网络优化算法[M]. 北京航空航天大学出版社,2011:27-37.
    [2] 翁苏骏. 遗传算法改进的新思路及其在股市投资中的应用[D]. 厦门:厦门大学,1999.

    完整代码下载:

    注意,代码下载后仍需自行调试~
    有调试能力的人再下载,问关于代码问题的不会回复,应该每个人环境不同,会出现各种问题,需要大家自己解决!!!
    积分值为5(如果有变为csdn自行修改)
    https://download.csdn.net/download/zxm_jimin/10976678
    在这里插入图片描述

    如果出现图书推荐,点击更多资源-》展开-》下拉即可看到,应该是csdn的问题。

    本文为原创,转载请注明出处。

    展开全文
  • 基于遗传算法BP神经网络优化算法matlab程序,matlab可以直接运行
  • 遗传算法优化BP神经网络拟合非线性函数

    万次阅读 多人点赞 2018-08-09 19:45:58
    本文主要是讲遗传算法用于优化BP算法,BP算法在拟合非线性函数时,虽然可以收敛,但是有可能收敛到局部最小点,这是源于它的搜索是串行搜索,而遗传算法的并行性,能够使其更容易收敛到全局最小点。在训练神经网络时...
  • 基于遗传算法BP神经网络优化算法,MATLAB智能算法30个案例分析的例程,正确完整
  • 本文研究用遗传算法优化BP神经网络,既可以用遗传算法优化神经网络的连接权值,又可以优化神经网络的拓扑结构,还可以用遗传算法同时优化BP神经网络的权值、阈值和网路拓扑结构。传统BP神经网络的权值通过梯度下降来...
  • 遗传算法 优化 BP神经网络 非线性函数 拟合

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 3,190
精华内容 1,276
关键字:

遗传算法bp神经网络