精华内容
下载资源
问答
  • 利用MATLAB 进行BP神经网络预测(含有神经网络工具箱) 最近一段时间在研究如何利用预测其销量个数,在网上搜索了一下,发现了很多模型来预测,比如利用回归模型、时间序列模型,GM(1,1)模型,可是自己在结合...

            利用MATLAB 进行BP神经网络的预测(含有神经网络工具箱)

      最近一段时间在研究如何利用预测其销量个数,在网上搜索了一下,发现了很多模型来预测,比如利用回归模型、时间序列模型,GM(1,1)模型,可是自己在结合实际的工作内容,发现这几种模型预测的精度不是很高,于是再在网上进行搜索,发现神经网络模型可以来预测,并且有很多是结合时间序列或者SVM(支持向量机)等组合模型来进行预测,本文结合实际数据,选取了常用的BP神经网络算法,其算法原理,因网上一大堆,所以在此不必一一展示,并参考了bp神经网络进行交通预测的Matlab源代码这篇博文,运用matlab 2016a,给出了下面的代码,并最终进行了预测

    clc
    
    clear all
    
    close all
    
    %bp 神经网络的预测代码
    
    %载入输出和输入数据
    
    load C:\Users\amzon\Desktop\p.txt;
    
    load C:\Users\amzon\Desktop\t.txt;
    
    %保存数据到matlab的工作路径里面
    
    save p.mat;
    
    save t.mat;%注意t必须为行向量
    
    %赋值给输出p和输入t
    
    p=p;
    
    t=t;
    
    %数据的归一化处理,利用mapminmax函数,使数值归一化到[-1.1]之间
    
    %该函数使用方法如下:[y,ps] =mapminmax(x,ymin,ymax),x需归化的数据输入,
    
    %ymin,ymax为需归化到的范围,不填默认为归化到[-1,1]
    
    %返回归化后的值y,以及参数ps,ps在结果反归一化中,需要调用
    
    [p1,ps]=mapminmax(p);
    
    [t1,ts]=mapminmax(t);
    
    %确定训练数据,测试数据,一般是随机的从样本中选取70%的数据作为训练数据
    
    %15%的数据作为测试数据,一般是使用函数dividerand,其一般的使用方法如下:
    
    %[trainInd,valInd,testInd] = dividerand(Q,trainRatio,valRatio,testRatio)
    
    [trainsample.p,valsample.p,testsample.p] =dividerand(p,0.7,0.15,0.15);
    
    [trainsample.t,valsample.t,testsample.t] =dividerand(t,0.7,0.15,0.15);
    
    %建立反向传播算法的BP神经网络,使用newff函数,其一般的使用方法如下
    
    %net = newff(minmax(p),[隐层的神经元的个数,输出层的神经元的个数],{隐层神经元的传输函数,输出层的传输函数},'反向传播的训练函数'),其中p为输入数据,t为输出数据
    
    %tf为神经网络的传输函数,默认为'tansig'函数为隐层的传输函数,
    
    %purelin函数为输出层的传输函数
    
    %一般在这里还有其他的传输的函数一般的如下,如果预测出来的效果不是很好,可以调节
    
    %TF1 = 'tansig';TF2 = 'logsig';
    
    %TF1 = 'logsig';TF2 = 'purelin';
    
    %TF1 = 'logsig';TF2 = 'logsig';
    
    %TF1 = 'purelin';TF2 = 'purelin';
    
    TF1='tansig';TF2='purelin';
    
    net=newff(minmax(p),[10,1],{TF1 TF2},'traingdm');%网络创建
    
    %网络参数的设置
    
    net.trainParam.epochs=10000;%训练次数设置
    
    net.trainParam.goal=1e-7;%训练目标设置
    
    net.trainParam.lr=0.01;%学习率设置,应设置为较少值,太大虽然会在开始加快收敛速度,但临近最佳点时,会产生动荡,而致使无法收敛
    
    net.trainParam.mc=0.9;%动量因子的设置,默认为0.9
    
    net.trainParam.show=25;%显示的间隔次数
    
    % 指定训练参数
    
    % net.trainFcn = 'traingd'; % 梯度下降算法
    
    % net.trainFcn = 'traingdm'; % 动量梯度下降算法
    
    % net.trainFcn = 'traingda'; % 变学习率梯度下降算法
    
    % net.trainFcn = 'traingdx'; % 变学习率动量梯度下降算法
    
    % (大型网络的首选算法)
    
    % net.trainFcn = 'trainrp'; % RPROP(弹性BP)算法,内存需求最小
    
    % 共轭梯度算法
    
    % net.trainFcn = 'traincgf'; %Fletcher-Reeves修正算法
    
    % net.trainFcn = 'traincgp'; %Polak-Ribiere修正算法,内存需求比Fletcher-Reeves修正算法略大
    
    % net.trainFcn = 'traincgb'; % Powell-Beal复位算法,内存需求比Polak-Ribiere修正算法略大
    
    % (大型网络的首选算法)
    
    %net.trainFcn = 'trainscg'; % ScaledConjugate Gradient算法,内存需求与Fletcher-Reeves修正算法相同,计算量比上面三种算法都小很多
    
    % net.trainFcn = 'trainbfg'; %Quasi-Newton Algorithms - BFGS Algorithm,计算量和内存需求均比共轭梯度算法大,但收敛比较快
    
    % net.trainFcn = 'trainoss'; % OneStep Secant Algorithm,计算量和内存需求均比BFGS算法小,比共轭梯度算法略大
    
    % (中型网络的首选算法)
    
    %net.trainFcn = 'trainlm'; %Levenberg-Marquardt算法,内存需求最大,收敛速度最快
    
    % net.trainFcn = 'trainbr'; % 贝叶斯正则化算法
    
    % 有代表性的五种算法为:'traingdx','trainrp','trainscg','trainoss', 'trainlm'
    
    %在这里一般是选取'trainlm'函数来训练,其算对对应的是Levenberg-Marquardt算法
    
    net.trainFcn='trainlm';
    
    [net,tr]=train(net,trainsample.p,trainsample.t);
    
    %计算仿真,其一般用sim函数
    
    [normtrainoutput,trainPerf]=sim(net,trainsample.p,[],[],trainsample.t);%训练的数据,根据BP得到的结果
    
    [normvalidateoutput,validatePerf]=sim(net,valsample.p,[],[],valsample.t);%验证的数据,经BP得到的结果
    
    [normtestoutput,testPerf]=sim(net,testsample.p,[],[],testsample.t);%测试数据,经BP得到的结果
    
    %将所得的结果进行反归一化,得到其拟合的数据
    
    trainoutput=mapminmax('reverse',normtrainoutput,ts);
    
    validateoutput=mapminmax('reverse',normvalidateoutput,ts);
    
    testoutput=mapminmax('reverse',normtestoutput,ts);
    
    %正常输入的数据的反归一化的处理,得到其正式值
    
    trainvalue=mapminmax('reverse',trainsample.t,ts);%正常的验证数据
    
    validatevalue=mapminmax('reverse',valsample.t,ts);%正常的验证的数据
    
    testvalue=mapminmax('reverse',testsample.t,ts);%正常的测试数据
    
    ## 得到真实值后 需要衡量模型好坏 这里我选取R2作为衡量模型的好
    R2 = corrcoef(testsample.t,testvalue);
    R2 = R2(1,2)^ 2;
    %% 画出误差图
    figure
    plot( 1:length(testvalue), testsample.t, '-or' ,1:length(testvalue) ,testvalue , '-*b');
    legend('真实值','预测值')
    xlabel('预测样本')
    ylabel('strength')
    string = {'BP网络预测结果对比';['R^2=' num2str(R2)]};
    title(string)
    
    
    %做预测,输入要预测的数据pnew
    
    pnew=[313,256,239]';
    
    pnewn=mapminmax(pnew);
    
    anewn=sim(net,pnewn);
    
    anew=mapminmax('reverse',anewn,ts);
    
    %绝对误差的计算
    
    errors=trainvalue-trainoutput;
    
    %plotregression拟合图
    
    figure,plotregression(trainvalue,trainoutput)
    
    %误差图
    
    figure,plot(1:length(errors),errors,'-b')
    
    title('误差变化图')
    
    %误差值的正态性的检验
    
    figure,hist(errors);%频数直方图
    
    figure,normplot(errors);%Q-Q图
    
    [muhat,sigmahat,muci,sigmaci]=normfit(errors);%参数估计 均值,方差,均值的0.95置信区间,方差的0.95置信区间
    
    [h1,sig,ci]= ttest(errors,muhat);%假设检验
    
    figure, ploterrcorr(errors);%绘制误差的自相关图
    
    figure, parcorr(errors);%绘制偏相关图

    运行之后的,结果如下:

    BP神经网络的结果分析图

    训练数据的梯度和均方误差之间的关系图

    验证数据的梯度与学习次数

    残差的正态的检验图(Q-Q图)

     

     

    在网上,发现可以通过神经网络工具箱这个GUI界面来创建神经网络,其一般的操作步骤如下:

    1:在输入命令里面输入nntool命令,或者在应用程序这个选项下找到Netrual Net Fitting 这个应用程序,点击打开,就能看见如下界面

     

     

     

    2:输入数据和输出数据的导入(在本文中选取了matlab自带的案例数据)


    3:随机选择三种类型的数据所占的样本量的比例,一般选取默认即可



    4:隐层神经元的确定
                                                                                 


    5:训练算法的选取,一般是选择默认即可,选择完成后点击<train>按钮即可运行程序




    6:根据得到的结果,一般是MSE的值越小,R值越接近1,其训练的效果比较,并第二张图给出了神经网络的各参数的设置以及其最终的结果,其拟合图R越接近1,模型拟合的更好








    最终的结果图

    7:如果所得到的模型不能满足你的需求,则需重复上述的步骤直至能够得到你想要的精确度

    8:将最终的得到的各种数据以及其拟合值进行保存,然后查看,就可以得到所要的拟合值



    MATLAB 与神经网络相关的函数总结如下:

     图形用户界面功能
        nnstart - 神经网络启动GUI 
        nctool - 神经网络分类工具 
        nftool - 神经网络的拟合工具 
        nntraintool - 神经网络的训练工具 
        nprtool - 神经网络模式识别工具 
        ntstool - NFTool神经网络时间序列的工具 
        nntool - 神经网络工具箱的图形用户界面。 
        查看 - 查看一个神经网络。 
      
      网络的建立功能
        cascadeforwardnet - 串级,前馈神经网络。 
        competlayer - 竞争神经层。 
        distdelaynet - 分布时滞的神经网络。 
        elmannet - Elman神经网络。 
        feedforwardnet - 前馈神经网络。 
        fitnet - 函数拟合神经网络。 
        layrecnet - 分层递归神经网络。 
        linearlayer - 线性神经层。 
        lvqnet - 学习矢量量化(LVQ)神经网络。 
        narnet - 非线性自结合的时间序列网络。 
        narxnet - 非线性自结合的时间序列与外部输入网络。 
        newgrnn - 设计一个广义回归神经网络。 
        newhop - 建立经常性的Hopfield网络。 
        newlind - 设计一个线性层。 
        newpnn - 设计概率神经网络。 
        newrb - 径向基网络设计。 
        newrbe - 设计一个确切的径向基网络。 
        patternnet - 神经网络模式识别。 
        感知 - 感知。 
        selforgmap - 自组织特征映射。 
        timedelaynet - 时滞神经网络。 
      
      利用网络
        网络 - 创建一个自定义神经网络。 
        SIM卡 - 模拟一个神经网络。 
        初始化 - 初始化一个神经网络。 
        适应 - 允许一个神经网络来适应。 
        火车 - 火车的神经网络。 
        DISP键 - 显示一个神经网络的属性。 
        显示 - 显示的名称和神经网络属性 
        adddelay - 添加延迟神经网络的反应。 
        closeloop - 神经网络的开放反馈转换到关闭反馈回路。 
        formwb - 表格偏见和成单个向量的权重。 
        getwb - 将它作为一个单一向量中的所有网络权值和偏差。 
        noloop - 删除神经网络的开放和关闭反馈回路。 
        开环 - 转换神经网络反馈,打开封闭的反馈循环。 
        removedelay - 删除延迟神经网络的反应。 
        separatewb - 独立的偏见和重量/偏置向量的权重。 
        setwb - 将所有与单个矢量网络权值和偏差。 
      
      Simulink的支持
        gensim - 生成Simulink模块来模拟神经网络。 
        setsiminit - 集神经网络的Simulink模块的初始条件 
        getsiminit - 获取神经网络Simulink模块的初始条件 
        神经元 - 神经网络Simulink的模块库。 
     
        trainb - 批具有重量与偏见学习规则的培训。 
        trainbfg - 的BFGS拟牛顿倒传递。 
        trainbr - 贝叶斯规则的BP算法。 
        trainbu - 与重量与偏见一批无监督学习规则的培训。 
        trainbuwb - 与体重无监督学习规则与偏见一批培训。 
        trainc - 循环顺序重量/偏见的培训。 
        traincgb - 共轭鲍威尔比尔重新启动梯度反向传播。 
        traincgf - 共轭弗莱彻-里夫斯更新梯度反向传播。 
        traincgp - 共轭波拉克- Ribiere更新梯度反向传播。 
        traingd - 梯度下降反向传播。 
        traingda - 具有自适应LR的反向传播梯度下降。 
        traingdm - 与动量梯度下降。 
        traingdx - 梯度下降瓦特/惯性与自适应LR的反向传播。 
        trainlm - 采用Levenberg -马奎德倒传递。 
        trainoss - 一步割线倒传递。 
        trainr - 随机重量/偏见的培训。 
        trainrp - RPROP反向传播。 
        trainru - 无监督随机重量/偏见的培训。 
        火车 - 顺序重量/偏见的培训。 
        trainscg - 规模化共轭梯度BP算法。 
      
      绘图功能
        plotconfusion - 图分类混淆矩阵。 
        ploterrcorr - 误差自相关时间序列图。 
        ploterrhist - 绘制误差直方图。 
        plotfit - 绘图功能适合。 
        plotinerrcorr - 图输入错误的时间序列的互相关。 
        plotperform - 小区网络性能。 
        plotregression - 线性回归情节。 
        plotresponse - 动态网络图的时间序列响应。 
        plotroc - 绘制受试者工作特征。 
        plotsomhits - 小区自组织图来样打。 
        plotsomnc - 小区自组织映射邻居的连接。 
        plotsomnd - 小区自组织映射邻居的距离。 
        plotsomplanes - 小区自组织映射重量的飞机。 
        plotsompos - 小区自组织映射重量立场。 
        plotsomtop - 小区自组织映射的拓扑结构。 
        plottrainstate - 情节训练状态值。 
        plotwb - 图寒春重量和偏差值图。 
      
      列出其他神经网络实现的功能
        nnadapt - 适应职能。 
        nnderivati​​ve - 衍生功能。 
        nndistance - 距离函数。 
        nndivision - 除功能。 
        nninitlayer - 初始化层功能。 
        nninitnetwork - 初始化网络功能。 
        nninitweight - 初始化权函数。 
        nnlearn - 学习功能。 
        nnnetinput - 净输入功能。 
        nnperformance - 性能的功能。 
        nnprocess - 处理功能。 
        nnsearch - 线搜索功能。 
        nntopology - 拓扑结构的功能。 
        nntransfer - 传递函数。 
        nnweight - 重量的功能。 
        nndemos - 神经网络工具箱的示威。 
        nndatasets - 神经网络工具箱的数据集。 
        nntextdemos - 神经网络设计教科书的示威。 
        nntextbook - 神经网络设计教科书的资讯。 

     

     

    Save

     

    展开全文
  • 最近一段时间在研究如何利用...发现神经网络模型可以来预测,并且有很多是结合时间序列或者SVM(支持向量机)等组合模型来进行预测,本文结合实际数据,选取了常用的BP神经网络算法,其算法原理,因网上一大堆,所以...

      最近一段时间在研究如何利用预测其销量个数,在网上搜索了一下,发现了很多模型来预测,比如利用回归模型、时间序列模型,GM(1,1)模型,可是自己在结合实际的工作内容,发现这几种模型预测的精度不是很高,于是再在网上进行搜索,发现神经网络模型可以来预测,并且有很多是结合时间序列或者SVM(支持向量机)等组合模型来进行预测,本文结合实际数据,选取了常用的BP神经网络算法,其算法原理,因网上一大堆,所以在此不必一一展示,并参考了bp神经网络进行交通预测的Matlab源代码这篇博文,运用matlab 2016a,给出了下面的代码,并最终进行了预测

    clc
    
    clear all
    
    close all
    
    %bp 神经网络的预测代码
    
    %载入输出和输入数据
    
    load C:\Users\amzon\Desktop\p.txt;
    
    load C:\Users\amzon\Desktop\t.txt;
    
    %保存数据到matlab的工作路径里面
    
    save p.mat;
    
    save t.mat;%注意t必须为行向量
    
    %赋值给输出p和输入t
    
    p=p;
    
    t=t;
    
    %数据的归一化处理,利用mapminmax函数,使数值归一化到[-1.1]之间
    
    %该函数使用方法如下:[y,ps] =mapminmax(x,ymin,ymax),x需归化的数据输入,
    
    %ymin,ymax为需归化到的范围,不填默认为归化到[-1,1]
    
    %返回归化后的值y,以及参数ps,ps在结果反归一化中,需要调用
    
    [p1,ps]=mapminmax(p);
    
    [t1,ts]=mapminmax(t);
    
    %确定训练数据,测试数据,一般是随机的从样本中选取70%的数据作为训练数据
    
    %15%的数据作为测试数据,一般是使用函数dividerand,其一般的使用方法如下:
    
    %[trainInd,valInd,testInd] = dividerand(Q,trainRatio,valRatio,testRatio)
    
    [trainsample.p,valsample.p,testsample.p] =dividerand(p,0.7,0.15,0.15);
    
    [trainsample.t,valsample.t,testsample.t] =dividerand(t,0.7,0.15,0.15);
    
    %建立反向传播算法的BP神经网络,使用newff函数,其一般的使用方法如下
    
    %net = newff(minmax(p),[隐层的神经元的个数,输出层的神经元的个数],{隐层神经元的传输函数,输出层的传输函数},'反向传播的训练函数'),其中p为输入数据,t为输出数据
    
    %tf为神经网络的传输函数,默认为'tansig'函数为隐层的传输函数,
    
    %purelin函数为输出层的传输函数
    
    %一般在这里还有其他的传输的函数一般的如下,如果预测出来的效果不是很好,可以调节
    
    %TF1 = 'tansig';TF2 = 'logsig';
    
    %TF1 = 'logsig';TF2 = 'purelin';
    
    %TF1 = 'logsig';TF2 = 'logsig';
    
    %TF1 = 'purelin';TF2 = 'purelin';
    
    TF1='tansig';TF2='purelin';
    
    net=newff(minmax(p),[10,1],{TF1 TF2},'traingdm');%网络创建
    
    %网络参数的设置
    
    net.trainParam.epochs=10000;%训练次数设置
    
    net.trainParam.goal=1e-7;%训练目标设置
    
    net.trainParam.lr=0.01;%学习率设置,应设置为较少值,太大虽然会在开始加快收敛速度,但临近最佳点时,会产生动荡,而致使无法收敛
    
    net.trainParam.mc=0.9;%动量因子的设置,默认为0.9
    
    net.trainParam.show=25;%显示的间隔次数
    
    % 指定训练参数
    
    % net.trainFcn = 'traingd'; % 梯度下降算法
    
    % net.trainFcn = 'traingdm'; % 动量梯度下降算法
    
    % net.trainFcn = 'traingda'; % 变学习率梯度下降算法
    
    % net.trainFcn = 'traingdx'; % 变学习率动量梯度下降算法
    
    % (大型网络的首选算法)
    
    % net.trainFcn = 'trainrp'; % RPROP(弹性BP)算法,内存需求最小
    
    % 共轭梯度算法
    
    % net.trainFcn = 'traincgf'; %Fletcher-Reeves修正算法
    
    % net.trainFcn = 'traincgp'; %Polak-Ribiere修正算法,内存需求比Fletcher-Reeves修正算法略大
    
    % net.trainFcn = 'traincgb'; % Powell-Beal复位算法,内存需求比Polak-Ribiere修正算法略大
    
    % (大型网络的首选算法)
    
    %net.trainFcn = 'trainscg'; % ScaledConjugate Gradient算法,内存需求与Fletcher-Reeves修正算法相同,计算量比上面三种算法都小很多
    
    % net.trainFcn = 'trainbfg'; %Quasi-Newton Algorithms - BFGS Algorithm,计算量和内存需求均比共轭梯度算法大,但收敛比较快
    
    % net.trainFcn = 'trainoss'; % OneStep Secant Algorithm,计算量和内存需求均比BFGS算法小,比共轭梯度算法略大
    
    % (中型网络的首选算法)
    
    %net.trainFcn = 'trainlm'; %Levenberg-Marquardt算法,内存需求最大,收敛速度最快
    
    % net.trainFcn = 'trainbr'; % 贝叶斯正则化算法
    
    % 有代表性的五种算法为:'traingdx','trainrp','trainscg','trainoss', 'trainlm'
    
    %在这里一般是选取'trainlm'函数来训练,其算对对应的是Levenberg-Marquardt算法
    
    net.trainFcn='trainlm';
    
    [net,tr]=train(net,trainsample.p,trainsample.t);
    
    %计算仿真,其一般用sim函数
    
    [normtrainoutput,trainPerf]=sim(net,trainsample.p,[],[],trainsample.t);%训练的数据,根据BP得到的结果
    
    [normvalidateoutput,validatePerf]=sim(net,valsample.p,[],[],valsample.t);%验证的数据,经BP得到的结果
    
    [normtestoutput,testPerf]=sim(net,testsample.p,[],[],testsample.t);%测试数据,经BP得到的结果
    
    %将所得的结果进行反归一化,得到其拟合的数据
    
    trainoutput=mapminmax('reverse',normtrainoutput,ts);
    
    validateoutput=mapminmax('reverse',normvalidateoutput,ts);
    
    testoutput=mapminmax('reverse',normtestoutput,ts);
    
    %正常输入的数据的反归一化的处理,得到其正式值
    
    trainvalue=mapminmax('reverse',trainsample.t,ts);%正常的验证数据
    
    validatevalue=mapminmax('reverse',valsample.t,ts);%正常的验证的数据
    
    testvalue=mapminmax('reverse',testsample.t,ts);%正常的测试数据
    
    %做预测,输入要预测的数据pnew
    
    pnew=[313,256,239]';
    
    pnewn=mapminmax(pnew);
    
    anewn=sim(net,pnewn);
    
    anew=mapminmax('reverse',anewn,ts);
    
    %绝对误差的计算
    
    errors=trainvalue-trainoutput;
    
    %plotregression拟合图
    
    figure,plotregression(trainvalue,trainoutput)
    
    %误差图
    
    figure,plot(1:length(errors),errors,'-b')
    
    title('误差变化图')
    
    %误差值的正态性的检验
    
    figure,hist(errors);%频数直方图
    
    figure,normplot(errors);%Q-Q图
    
    [muhat,sigmahat,muci,sigmaci]=normfit(errors);%参数估计 均值,方差,均值的0.95置信区间,方差的0.95置信区间
    
    [h1,sig,ci]= ttest(errors,muhat);%假设检验
    
    figure, ploterrcorr(errors);%绘制误差的自相关图
    
    figure, parcorr(errors);%绘制偏相关图

    运行之后的,结果如下:

    BP神经网络的结果分析图

    训练数据的梯度和均方误差之间的关系图

    验证数据的梯度与学习次数

    残差的正态的检验图(Q-Q图)

     

     

    在网上,发现可以通过神经网络工具箱这个GUI界面来创建神经网络,其一般的操作步骤如下:

    1:在输入命令里面输入nntool命令,或者在应用程序这个选项下找到Netrual Net Fitting 这个应用程序,点击打开,就能看见如下界面

     

     

     

    2:输入数据和输出数据的导入(在本文中选取了matlab自带的案例数据)


    3:随机选择三种类型的数据所占的样本量的比例,一般选取默认即可
     



    4:隐层神经元的确定
                                                                                  


    5:训练算法的选取,一般是选择默认即可,选择完成后点击<train>按钮即可运行程序




    6:根据得到的结果,一般是MSE的值越小,R值越接近1,其训练的效果比较,并第二张图给出了神经网络的各参数的设置以及其最终的结果,其拟合图R越接近1,模型拟合的更好








    最终的结果图

    7:如果所得到的模型不能满足你的需求,则需重复上述的步骤直至能够得到你想要的精确度

    8:将最终的得到的各种数据以及其拟合值进行保存,然后查看,就可以得到所要的拟合值



    最后参考了网上和MATLAB的帮助,给出了一些与神经网络相关的函数,希望能够帮助大家。。
     图形用户界面功能。 
        nnstart - 神经网络启动GUI 
        nctool - 神经网络分类工具 
        nftool - 神经网络的拟合工具 
        nntraintool - 神经网络的训练工具 
        nprtool - 神经网络模式识别工具 
        ntstool - NFTool神经网络时间序列的工具 
        nntool - 神经网络工具箱的图形用户界面。 
        查看 - 查看一个神经网络。 
      
      网络的建立功能。 
        cascadeforwardnet - 串级,前馈神经网络。 
        competlayer - 竞争神经层。 
        distdelaynet - 分布时滞的神经网络。 
        elmannet - Elman神经网络。 
        feedforwardnet - 前馈神经网络。 
        fitnet - 函数拟合神经网络。 
        layrecnet - 分层递归神经网络。 
        linearlayer - 线性神经层。 
        lvqnet - 学习矢量量化(LVQ)神经网络。 
        narnet - 非线性自结合的时间序列网络。 
        narxnet - 非线性自结合的时间序列与外部输入网络。 
        newgrnn - 设计一个广义回归神经网络。 
        newhop - 建立经常性的Hopfield网络。 
        newlind - 设计一个线性层。 
        newpnn - 设计概率神经网络。 
        newrb - 径向基网络设计。 
        newrbe - 设计一个确切的径向基网络。 
        patternnet - 神经网络模式识别。 
        感知 - 感知。 
        selforgmap - 自组织特征映射。 
        timedelaynet - 时滞神经网络。 
      
      利用网络。 
        网络 - 创建一个自定义神经网络。 
        SIM卡 - 模拟一个神经网络。 
        初始化 - 初始化一个神经网络。 
        适应 - 允许一个神经网络来适应。 
        火车 - 火车的神经网络。 
        DISP键 - 显示一个神经网络的属性。 
        显示 - 显示的名称和神经网络属性 
        adddelay - 添加延迟神经网络的反应。 
        closeloop - 神经网络的开放反馈转换到关闭反馈回路。 
        formwb - 表格偏见和成单个向量的权重。 
        getwb - 将它作为一个单一向量中的所有网络权值和偏差。 
        noloop - 删除神经网络的开放和关闭反馈回路。 
        开环 - 转换神经网络反馈,打开封闭的反馈循环。 
        removedelay - 删除延迟神经网络的反应。 
        separatewb - 独立的偏见和重量/偏置向量的权重。 
        setwb - 将所有与单个矢量网络权值和偏差。 
      
      Simulink的支持。 
        gensim - 生成Simulink模块来模拟神经网络。 
        setsiminit - 集神经网络的Simulink模块的初始条件 
        getsiminit - 获取神经网络Simulink模块的初始条件 
        神经元 - 神经网络Simulink的模块库。 
      
      培训职能。 
        trainb - 批具有重量与偏见学习规则的培训。 
        trainbfg - 的BFGS拟牛顿倒传递。 
        trainbr - 贝叶斯规则的BP算法。 
        trainbu - 与重量与偏见一批无监督学习规则的培训。 
        trainbuwb - 与体重无监督学习规则与偏见一批培训。 
        trainc - 循环顺序重量/偏见的培训。 
        traincgb - 共轭鲍威尔比尔重新启动梯度反向传播。 
        traincgf - 共轭弗莱彻-里夫斯更新梯度反向传播。 
        traincgp - 共轭波拉克- Ribiere更新梯度反向传播。 
        traingd - 梯度下降反向传播。 
        traingda - 具有自适应LR的反向传播梯度下降。 
        traingdm - 与动量梯度下降。 
        traingdx - 梯度下降瓦特/惯性与自适应LR的反向传播。 
        trainlm - 采用Levenberg -马奎德倒传递。 
        trainoss - 一步割线倒传递。 
        trainr - 随机重量/偏见的培训。 
        trainrp - RPROP反向传播。 
        trainru - 无监督随机重量/偏见的培训。 
        火车 - 顺序重量/偏见的培训。 
        trainscg - 规模化共轭梯度BP算法。 
      
      绘图功能。 
        plotconfusion - 图分类混淆矩阵。 
        ploterrcorr - 误差自相关时间序列图。 
        ploterrhist - 绘制误差直方图。 
        plotfit - 绘图功能适合。 
        plotinerrcorr - 图输入错误的时间序列的互相关。 
        plotperform - 小区网络性能。 
        plotregression - 线性回归情节。 
        plotresponse - 动态网络图的时间序列响应。 
        plotroc - 绘制受试者工作特征。 
        plotsomhits - 小区自组织图来样打。 
        plotsomnc - 小区自组织映射邻居的连接。 
        plotsomnd - 小区自组织映射邻居的距离。 
        plotsomplanes - 小区自组织映射重量的飞机。 
        plotsompos - 小区自组织映射重量立场。 
        plotsomtop - 小区自组织映射的拓扑结构。 
        plottrainstate - 情节训练状态值。 
        plotwb - 图寒春重量和偏差值图。 
      
      列出其他神经网络实现的功能。 
        nnadapt - 适应职能。 
        nnderivati​​ve - 衍生功能。 
        nndistance - 距离函数。 
        nndivision - 除功能。 
        nninitlayer - 初始化层功能。 
        nninitnetwork - 初始化网络功能。 
        nninitweight - 初始化权函数。 
        nnlearn - 学习功能。 
        nnnetinput - 净输入功能。 
        nnperformance - 性能的功能。 
        nnprocess - 处理功能。 
        nnsearch - 线搜索功能。 
        nntopology - 拓扑结构的功能。 
        nntransfer - 传递函数。 
        nnweight - 重量的功能。 
     nndemos - 神经网络工具箱的示威。 
        nndatasets - 神经网络工具箱的数据集。 
        nntextdemos - 神经网络设计教科书的示威。 
        nntextbook - 神经网络设计教科书的资讯。

     

    展开全文
  • Matlab关于人工神经网络在预测中的应用的论文一-基于MatlabBP神经网络煤炭需求预测模型.pdf 一、基于MatlabBP神经网络煤炭需求预测模型 摘要:煤炭是中国的基础能源,支撑着国民经济的商邃发展。在未来的一...
  • 利用MATLAB 2016a进行BP神经网络预测(含有神经网络工具箱)  最近一段时间在研究如何利用预测其销量个数,在网上搜索了一下,发现了很多模型来预测,比如利用回归模型、时间序列模型,GM(1,1)模型,可是...

    利用MATLAB 2016a进行BP神经网络的预测(含有神经网络工具箱)

        最近一段时间在研究如何利用预测其销量个数,在网上搜索了一下,发现了很多模型来预测,比如利用回归模型、时间序列模型,GM(1,1)模型,可是自己在结合实际的工作内容,发现这几种模型预测的精度不是很高,于是再在网上进行搜索,发现神经网络模型可以来预测,并且有很多是结合时间序列或者SVM(支持向量机)等组合模型来进行预测,本文结合实际数据,选取了常用的BP神经网络算法,其算法原理,因网上一大堆,所以在此不必一一展示,并参考了bp神经网络进行交通预测的Matlab源代码这篇博文,运用matlab 2016a,给出了下面的代码,并最终进行了预测

    clc

    clear all

    close all

    %bp 神经网络的预测代码

    %载入输出和输入数据

    load C:\Users\amzon\Desktop\p.txt;

    load C:\Users\amzon\Desktop\t.txt;

    %保存数据到matlab的工作路径里面

    save p.mat;

    save t.mat;%注意t必须为行向量

    %赋值给输出p和输入t

    p=p;

    t=t;

    %数据的归一化处理,利用mapminmax函数,使数值归一化到[-1.1]之间

    %该函数使用方法如下:[y,ps] =mapminmax(x,ymin,ymax),x需归化的数据输入,

    %ymin,ymax为需归化到的范围,不填默认为归化到[-1,1]

    %返回归化后的值y,以及参数ps,ps在结果反归一化中,需要调用

    [p1,ps]=mapminmax(p);

    [t1,ts]=mapminmax(t);

    %确定训练数据,测试数据,一般是随机的从样本中选取70%的数据作为训练数据

    %15%的数据作为测试数据,一般是使用函数dividerand,其一般的使用方法如下:

    %[trainInd,valInd,testInd] = dividerand(Q,trainRatio,valRatio,testRatio)

    [trainsample.p,valsample.p,testsample.p] =dividerand(p,0.7,0.15,0.15);

    [trainsample.t,valsample.t,testsample.t] =dividerand(t,0.7,0.15,0.15);

    %建立反向传播算法的BP神经网络,使用newff函数,其一般的使用方法如下

    %net = newff(minmax(p),[隐层的神经元的个数,输出层的神经元的个数],{隐层神经元的传输函数,输出层的传输函数},'反向传播的训练函数'),其中p为输入数据,t为输出数据

    %tf为神经网络的传输函数,默认为'tansig'函数为隐层的传输函数,

    %purelin函数为输出层的传输函数

    %一般在这里还有其他的传输的函数一般的如下,如果预测出来的效果不是很好,可以调节

    %TF1 = 'tansig';TF2 = 'logsig';

    %TF1 = 'logsig';TF2 = 'purelin';

    %TF1 = 'logsig';TF2 = 'logsig';

    %TF1 = 'purelin';TF2 = 'purelin';

    TF1='tansig';TF2='purelin';

    net=newff(minmax(p),[10,1],{TF1 TF2},'traingdm');%网络创建

    %网络参数的设置

    net.trainParam.epochs=10000;%训练次数设置

    net.trainParam.goal=1e-7;%训练目标设置

    net.trainParam.lr=0.01;%学习率设置,应设置为较少值,太大虽然会在开始加快收敛速度,但临近最佳点时,会产生动荡,而致使无法收敛

    net.trainParam.mc=0.9;%动量因子的设置,默认为0.9

    net.trainParam.show=25;%显示的间隔次数

    指定训练参数

    % net.trainFcn = 'traingd'; % 梯度下降算法

    % net.trainFcn = 'traingdm'; % 动量梯度下降算法

    % net.trainFcn = 'traingda'; % 变学习率梯度下降算法

    % net.trainFcn = 'traingdx'; % 变学习率动量梯度下降算法

    % (大型网络的首选算法)

    % net.trainFcn = 'trainrp'; % RPROP(弹性BP)算法,内存需求最小

    共轭梯度算法

    % net.trainFcn = 'traincgf'; %Fletcher-Reeves修正算法

    % net.trainFcn = 'traincgp'; %Polak-Ribiere修正算法,内存需求比Fletcher-Reeves修正算法略大

    % net.trainFcn = 'traincgb'; % Powell-Beal复位算法,内存需求比Polak-Ribiere修正算法略大

    % (大型网络的首选算法)

    %net.trainFcn = 'trainscg'; % ScaledConjugate Gradient算法,内存需求与Fletcher-Reeves修正算法相同,计算量比上面三种算法都小很多

    % net.trainFcn = 'trainbfg'; %Quasi-Newton Algorithms - BFGS Algorithm,计算量和内存需求均比共轭梯度算法大,但收敛比较快

    % net.trainFcn = 'trainoss'; % OneStep Secant Algorithm,计算量和内存需求均比BFGS算法小,比共轭梯度算法略大

    % (中型网络的首选算法)

    %net.trainFcn = 'trainlm'; %Levenberg-Marquardt算法,内存需求最大,收敛速度最快

    % net.trainFcn = 'trainbr'; % 贝叶斯正则化算法

    有代表性的五种算法为:'traingdx','trainrp','trainscg','trainoss', 'trainlm'

    %在这里一般是选取'trainlm'函数来训练,其算对对应的是Levenberg-Marquardt算法

    net.trainFcn='trainlm';

    [net,tr]=train(net,trainsample.p,trainsample.t);

    %计算仿真,其一般用sim函数

    [normtrainoutput,trainPerf]=sim(net,trainsample.p,[],[],trainsample.t);%训练的数据,根据BP得到的结果

    [normvalidateoutput,validatePerf]=sim(net,valsample.p,[],[],valsample.t);%验证的数据,经BP得到的结果

    [normtestoutput,testPerf]=sim(net,testsample.p,[],[],testsample.t);%测试数据,经BP得到的结果

    %将所得的结果进行反归一化,得到其拟合的数据

    trainoutput=mapminmax('reverse',normtrainoutput,ts);

    validateoutput=mapminmax('reverse',normvalidateoutput,ts);

    testoutput=mapminmax('reverse',normtestoutput,ts);

    %正常输入的数据的反归一化的处理,得到其正式值

    trainvalue=mapminmax('reverse',trainsample.t,ts);%正常的验证数据

    validatevalue=mapminmax('reverse',valsample.t,ts);%正常的验证的数据

    testvalue=mapminmax('reverse',testsample.t,ts);%正常的测试数据

    %做预测,输入要预测的数据pnew

    pnew=[313,256,239]';

    pnewn=mapminmax(pnew);

    anewn=sim(net,pnewn);

    anew=mapminmax('reverse',anewn,ts);

    %绝对误差的计算

    errors=trainvalue-trainoutput;

    %plotregression拟合图

    figure,plotregression(trainvalue,trainoutput)

    %误差图

    figure,plot(1:length(errors),errors,'-b')

    title('误差变化图')

    %误差值的正态性的检验

    figure,hist(errors);%频数直方图

    figure,normplot(errors);%Q-Q

    [muhat,sigmahat,muci,sigmaci]=normfit(errors); %参数估计 均值,方差,均值的0.95置信区间,方差的0.95置信区间

    [h1,sig,ci]= ttest(errors,muhat);%假设检验

    figure, ploterrcorr(errors);%绘制误差的自相关图

    figure, parcorr(errors);%绘制偏相关图

    运行之后的,结果如下:


    BP神经网络的结果分析图


    训练数据的梯度和均方误差之间的关系图


    验证数据的梯度与学习次数


    残差的正态的检验图(Q-Q图)



    在网上,发现可以通过神经网络工具箱这个GUI界面来创建神经网络,其一般的操作步骤如下:

    1:在输入命令里面输入nntool命令,或者在应用程序这个选项下找到Netrual Net Fitting 这个应用程序,点击打开,就能看见如下界面






    2:输入数据和输出数据的导入(在本文中选取了matlab自带的案例数据)



    3:随机选择三种类型的数据所占的样本量的比例,一般选取默认即可

      


    4:隐层神经元的确定
                                                                                  


    5:训练算法的选取,一般是选择默认即可,选择完成后点击<train>按钮即可运行程序




    6:根据得到的结果,一般是MSE的值越小,R值越接近1,其训练的效果比较,并第二张图给出了神经网络的各参数的设置以及其最终的结果,其拟合图R越接近1,模型拟合的更好








    最终的结果图
    7:如果所得到的模型不能满足你的需求,则需重复上述的步骤直至能够得到你想要的精确度

    8:将最终的得到的各种数据以及其拟合值进行保存,然后查看,就可以得到所要的拟合值




    最后参考了网上和MATLAB的帮助,给出了一些与神经网络相关的函数,希望能够帮助大家。。
     
    图形用户界面功能。 
        
    nnstart - 神经网络启动GUI 
        
    nctool - 神经网络分类工具 
        
    nftool - 神经网络的拟合工具 
        
    nntraintool - 神经网络的训练工具 
        
    nprtool - 神经网络模式识别工具 
        
    ntstool - NFTool神经网络时间序列的工具 
        
    nntool - 神经网络工具箱的图形用户界面。 
        
    查看 - 查看一个神经网络。 
      
      
    网络的建立功能。 
        
    cascadeforwardnet - 串级,前馈神经网络。 
        
    competlayer - 竞争神经层。 
        
    distdelaynet - 分布时滞的神经网络。 
        
    elmannet - Elman神经网络。 
        
    feedforwardnet - 前馈神经网络。 
        
    fitnet - 函数拟合神经网络。 
        
    layrecnet - 分层递归神经网络。 
        
    linearlayer - 线性神经层。 
        
    lvqnet - 学习矢量量化(LVQ)神经网络。 
        
    narnet - 非线性自结合的时间序列网络。 
        
    narxnet - 非线性自结合的时间序列与外部输入网络。 
        
    newgrnn - 设计一个广义回归神经网络。 
        
    newhop - 建立经常性的Hopfield网络。 
        
    newlind - 设计一个线性层。 
        
    newpnn - 设计概率神经网络。 
        
    newrb - 径向基网络设计。 
        
    newrbe - 设计一个确切的径向基网络。 
        
    patternnet - 神经网络模式识别。 
        
    感知 - 感知。 
        
    selforgmap - 自组织特征映射。 
        
    timedelaynet - 时滞神经网络。 
      
      
    利用网络。 
        
    网络 - 创建一个自定义神经网络。 
        
    SIM卡 - 模拟一个神经网络。 
        
    初始化 - 初始化一个神经网络。 
        
    适应 - 允许一个神经网络来适应。 
        
    火车 - 火车的神经网络。 
        
    DISP键 - 显示一个神经网络的属性。 
        
    显示 - 显示的名称和神经网络属性 
        
    adddelay - 添加延迟神经网络的反应。 
        
    closeloop - 神经网络的开放反馈转换到关闭反馈回路。 
        
    formwb - 表格偏见和成单个向量的权重。 
        
    getwb - 将它作为一个单一向量中的所有网络权值和偏差。 
        
    noloop - 删除神经网络的开放和关闭反馈回路。 
        
    开环 - 转换神经网络反馈,打开封闭的反馈循环。 
        
    removedelay - 删除延迟神经网络的反应。 
        
    separatewb - 独立的偏见和重量/偏置向量的权重。 
        
    setwb - 将所有与单个矢量网络权值和偏差。 
      
      
    Simulink的支持。 
        
    gensim - 生成Simulink模块来模拟神经网络。 
        
    setsiminit - 集神经网络的Simulink模块的初始条件 
        
    getsiminit - 获取神经网络Simulink模块的初始条件 
        
    神经元 - 神经网络Simulink的模块库。 
      
      
    培训职能。 
        
    trainb - 批具有重量与偏见学习规则的培训。 
        
    trainbfg - 的BFGS拟牛顿倒传递。 
        
    trainbr - 贝叶斯规则的BP算法。 
        
    trainbu - 与重量与偏见一批无监督学习规则的培训。 
        
    trainbuwb - 与体重无监督学习规则与偏见一批培训。 
        
    trainc - 循环顺序重量/偏见的培训。 
        
    traincgb - 共轭鲍威尔比尔重新启动梯度反向传播。 
        
    traincgf - 共轭弗莱彻-里夫斯更新梯度反向传播。 
        
    traincgp - 共轭波拉克- Ribiere更新梯度反向传播。 
        
    traingd - 梯度下降反向传播。 
        
    traingda - 具有自适应LR的反向传播梯度下降。 
        
    traingdm - 与动量梯度下降。 
        
    traingdx - 梯度下降瓦特/惯性与自适应LR的反向传播。 
        
    trainlm - 采用Levenberg -马奎德倒传递。 
        
    trainoss - 一步割线倒传递。 
        
    trainr - 随机重量/偏见的培训。 
        
    trainrp - RPROP反向传播。 
        
    trainru - 无监督随机重量/偏见的培训。 
        
    火车 - 顺序重量/偏见的培训。 
        
    trainscg - 规模化共轭梯度BP算法。 
      
      
    绘图功能。 
        
    plotconfusion - 图分类混淆矩阵。 
        
    ploterrcorr - 误差自相关时间序列图。 
        
    ploterrhist - 绘制误差直方图。 
        
    plotfit - 绘图功能适合。 
        
    plotinerrcorr - 图输入错误的时间序列的互相关。 
        
    plotperform - 小区网络性能。 
        
    plotregression - 线性回归情节。 
        
    plotresponse - 动态网络图的时间序列响应。 
        
    plotroc - 绘制受试者工作特征。 
        
    plotsomhits - 小区自组织图来样打。 
        
    plotsomnc - 小区自组织映射邻居的连接。 
        
    plotsomnd - 小区自组织映射邻居的距离。 
        
    plotsomplanes - 小区自组织映射重量的飞机。 
        
    plotsompos - 小区自组织映射重量立场。 
        
    plotsomtop - 小区自组织映射的拓扑结构。 
        
    plottrainstate - 情节训练状态值。 
        
    plotwb - 图寒春重量和偏差值图。 
      
      
    列出其他神经网络实现的功能。 
        
    nnadapt - 适应职能。 
        
    nnderivati​​ve - 衍生功能。 
        
    nndistance - 距离函数。 
        
    nndivision - 除功能。 
        
    nninitlayer - 初始化层功能。 
        
    nninitnetwork - 初始化网络功能。 
        
    nninitweight - 初始化权函数。 
        
    nnlearn - 学习功能。 
        
    nnnetinput - 净输入功能。 
        
    nnperformance - 性能的功能。 
        
    nnprocess - 处理功能。 
        
    nnsearch - 线搜索功能。 
        
    nntopology - 拓扑结构的功能。 
        
    nntransfer - 传递函数。 
        
    nnweight - 重量的功能。 
     
    nndemos - 神经网络工具箱的示威。 
        
    nndatasets - 神经网络工具箱的数据集。 
        
    nntextdemos - 神经网络设计教科书的示威。 
        
    nntextbook - 神经网络设计教科书的资讯。 

    展开全文
  • 可能大家在网上也学习了ANFIS工具箱的使用方法,其实很简单,但是,有一个问题可能一直在困扰着大家,就是如何把ANFIS工具箱预测的结果提取出来,下面,我就把自己学习ANFIS的过程写一写吧。首先,我是根据这个帖子...

    905e6beedeb9dfe8954051c1030d4ac3.png

    可能大家在网上也学习了ANFIS工具箱的使用方法,其实很简单,但是,有一个问题可能一直在困扰着大家,就是如何把ANFIS工具箱预测的结果提取出来,下面,我就把自己学习ANFIS的过程写一写吧。

    首先,我是根据这个帖子学习的,也非常感谢他的无私的讲解吖。https://blog.csdn.net/wzxq123/article/details/62889639

    不足的是他没有把具体的数据写入的过程,和最后的预测值输出写清楚。


    首先,我们需要打开matlab应用程序,在命令行窗口输入“anfisedit”调出ANFIS的工具箱,以下是其工具箱界面。

    2f4eade4a0a54fbf98f1132c364ebf98.png

    然后,就是将数据导入ANFIS工具箱中,这里要说明一下,ANFIS可以有多个输入,但是只有一个输出。系统会默认最后一列为输出数据,前面的为输入数据,或者说前面的是一些影响因素,最后一列是评价指标。将数据导入工具箱是在“Load data”板块下进行操作,首先导入“Training”数据,这里有两种方式导入,一种是“file”,一种是“worksp”,他们的区别是一个前者从你电脑的某一个路径调用,后者是从工作区调用,我一般喜欢后者,对于“Checking”的导入同上,我一般喜欢把两者的命名为“fuzextrnData.mat”和“fuzexchkData.mat”。

    cbef8aab933bbd1bc59a42b9c1a5c11e.png

    具体的“.mat”文件格式如何书写,请参考我的处女篇。初学matlab(1)数据导入的两种方式。链接在这里https://zhuanlan.zhihu.com/p/90660243

    将数据导入之后的界面如下:

    8ebd2c571d4475cd02b93309794d61b9.png

    在之后,就是创建隶属度函数了,在“Generate FIS”板块进行设置,这里面有四种调用隶属度函数的方式,最常用的是就是下面两种,以“GP”为例。之后点击“Generate FIS...”会弹出以下的对话框。

    77ff7e6266cd8e6c181e8a0efb1f9a9a.png

    在这里需要设置的有三个地方,第一个地方隶属度函数的个数,为什么是四个3呢?那是因为我的数据导入时,我的影响因素有四个,即有四个输入,所以这里有四个3,之后就需要自己不断试错的形式,看到底“3 3 3 3”出来的预测的结果好,还是“6 3 3 3”结果好呢?这个就需要你自己慢慢试了,这个没办法,这个也可能是工具箱带来便利的同时,他的弊端。第二部分是选择隶属度函数的类型,第三部分就是输出的形式,这些都是需要自己选择。如果想更加详细的设置,或者是想在自己的学术论文里面插入每个输入参数的隶属度函数的图形,可以在菜单栏的“Edit”下找到“Membership Function Editor”,具体界面如下:

    d69b6baaec7539e105c158d887291163.png

    在设置好隶属度函数之后,想要查看,自己所设置的网络结构是什么?这个网络结构也是书写论文很重要的图,那么,就需要返回最初的界面,不过此时,“Structure”按钮是可以点击的了。具体操作界面如下:

    279fd233cf31d91a59197bdfcf9ea635.png

    第一部分是我们输入和输出参数的个数信息和每个输入的隶属度函数的个数信息,第二部分为查看网络结构的按钮。点击之后可以看到我们设置的网络结构。

    ab8da12e68448831eda5b8355171e961.png

    查看网络结构之后,我们需要对训练隶属度函数这方面进行一些设置,这是在“Train FIS”板块设置,在这里“Optim Method”一般选用“Hybrid”,“Error Tolerance”这个根据你自己的误差进行设置,“Epochs”:迭代次数,需要不断测试。

    在进入第四个板块“Test FIS”之前,必须要第三个板块的“Train Now”点击之后才可以数据的预测。在一切的设置好之后,就可以在第四个板块那里。点击“Training data”和“Checking data”,这里是查看训练数据和测试数据的预测和实际值之间的对比,具体界面如下:

    2a8b93517642c30f1c9940dfbafaeb87.png

    858f9a288842ea6b6f297b1d4522bff0.png

    从以上可以看出,这里的预测结果还是很理想的,到了这里差不多也就完毕了,但是,突然发现,工具箱里面没有数据输出的设置!

    但是,不要慌,我们需要进行以下设置。首先,把训练的网络结构保存下来。我们需要点击菜单栏的“File”—"Export"—“To Workspace”,在对话框中输入对网络的命名。比如设置成“ANFIS”,此时,在工作区中就会出现一个网络结构。如下图。

    b963f9b9ccb1ba81d3b53415eb4e1116.png

    到这里,我们还就剩最后一个步骤就可以将预测的输出数据输出了,因为,一般情况下,我们需要的是测试数据的输出,即:将fuzexchkData的预测输出,此时,需要使用到evalfis()函数,具体书写如下:

    output_yuce_train=evalfis(input_train,ANFIS);

    在函数中,我们需要注意的是“input_train”,这个也是一个".mat"的数据文件,这个时候,我们需要做的事情是,把一开始在“fuzexchkData”中的前四列的数据填入一个新的“input_train.mat”文件中,“ANFIS”:就是我们刚才保存到工作区的网络结构。此时,在工具区会出现“output_yuce_train”,这就是我们所需的预测数据。

    32fc50a637e8bcd59a5397fb54988669.png

    写到这里,也就将ANFIS工具箱回归预测的使用方法全部写完了,希望对大家有所帮助,如果在使用过程中,有问题,请留言吖,不过,我觉得我讲清楚了吖!至于里面的原理是什么?我觉得不是专门搞计算机的没必要弄得那么清楚,毕竟咱们是应用的,或者说写论文的。

    展开全文
  • Matlab关于人工神经网络在预测中的应用的论文一-基于BP神经网络的电动小巴需求预测.pdf 一、基于MatlabBP神经网络煤炭需求预测模型 摘要:煤炭是中国的基础能源,支撑着国民经济的商邃发展。在未来的一段时期...
  • Matlab关于人工神经网络在预测中的应用的论文一-基于BP神经网络的丝状真菌生长预测研究.pdf 一、基于MatlabBP神经网络煤炭需求预测模型 摘要:煤炭是中国的基础能源,支撑着国民经济的商邃发展。在未来的一段...
  • BP神经网络、ELM极限学习机、SVM支持向量机MATLAB代码,以及测试数据,用于回归预测,相关细节可以在下方评论,看到时一一解答。
  • 小引-BP神经网络BP神经网络模型能够帮助我们实现对数据的预测、分类以及回归的需求。在个人参加一些数学建模比赛的经历中,但凡用到神经网络模型的论文,都获得了较为不错的成绩。我认为如果对数学建模有兴趣的同学...
  • 小引-BP神经网络BP神经网络模型能够帮助我们实现对数据的预测、分类以及回归的需求。在个人参加一些数学建模比赛的经历中,但凡用到神经网络模型的论文,都获得了较为不错的成绩。我认为如果对数学建模有兴趣的同学...
  • BP神经网络matlab

    2017-09-26 17:20:34
    BP神经网络的案例应用 来自---《 第25章 有导师学习神经网络的回归拟合——基于近红外光谱的汽油辛烷值预测
  • 几种改进的 BP 算法性能分析(1)实验条件:Matlab7.10.0(R2010a)分别实现了基本BP算法以及七种改进的BP算法(动量的梯度下降法、量化共轭梯度法、变学习率梯度下降算法、变学习率动量梯度下降法、弹性反向传播算法...
  • 提供一个MatlabBP神经网络的基础资料-附件2.txt 第一节内容:包括神经网络的基础知识,BP网络的特点,bp主要应用的场合,使用时应注意的问题。 什么是神经网络? 神经网络是由很多神经元组成的,首先我们看...
  • 神经网络模型简述 实例:交通运输能力预测设计 MATLAB程序及仿真结果 由于货物运输、地方经济及企业发展的紧密联系,因此作为反映货物运输需求的一项重要指标, 货运量预测研究和分析具有较强的实际意义。 常用的...
  • MATLAB编写自己的BP神经网络程序

    千次阅读 2020-11-04 22:36:10
    因为项目需要,自己搞了一个BP神经网络的程序,顺便做一下笔记 人工智能现在的分支有 1机器学习:就是通过算法从大数据中学习到规律,而后对未知的结果进行预测。 1.21监督学习:输入和输出已知,训练集中的目标...
  • Matlab关于人工神经网络预测中的应用的论文二-基于RBF人工神经网络模型预测棉花耗水量.pdf 四、灰色人工神经网络人口总量预测模型及应用 摘要:针对单一指标进行人口总量预测精度不高的问题,基于灰色系统...
  • Matlab关于人工神经网络预测中的应用的论文二-人工神经网络模型在研究生招生数量预测中的应用.pdf 四、灰色人工神经网络人口总量预测模型及应用 摘要:针对单一指标进行人口总量预测精度不高的问题,基于灰色...
  • Elman神经网络预测Matlab实现

    万次阅读 多人点赞 2017-12-10 18:16:03
    Elman神经网络matlab实现,其中Z为原始数据。 本文选用的Elman神经网络是一种典型的局部回归网络,属于反馈神经网络,与前向神经网络非常相似,具有更强的计算能力,其突出优点是具有很强的优化计算和联想记忆...
  • 模型平台:MATLAB1 模型输入输出介绍1.1 回归神经网络模型输入输出介绍输入神经元可以理解为自变量,输出神经元可理解为因变量。如果用矩阵表示输入输出的话,每一行矩阵表示一个神元,每一列表示一组数据,这里由于...
  • 案例1:BP神经网络的数据分类—语音特征信号分类 案例2 BP神经网络的非线性系统建模-非线性函数拟合 案例3:神经网络遗传算法函数极值寻优-非线性函数极值寻优 案例4:遗传算法优化BP神经网络-非线性函数拟合 案例5...
  • ------- 目录 第1章 P神经网络的数据分类——语音特征信号分类 第2章 BP神经网络的非线性系统建模——非线性函数拟合 第3章 遗传算法优化BP神经网络——非线性函数拟合 第4章 神经网络遗传算法函数极值寻优——非...
  • BP神经网络、SVM支持向量机、ELM极限学习机的MATLAB代码,三种对比实验,用于回归预测 内含测试数据
  • 第1章 BP神经网络的数据分类——语音特征信号分类 第2章 BP神经网络的非线性系统建模——非线性函数拟合 第3章 遗传算法优化BP神经网络——非线性函数拟合 第4章 神经网络遗传算法函数极值寻优——非线性函数极值寻...
  • 第1章 BP神经网络的数据分类——语音特征信号分类 第2章 BP神经网络的非线性系统建模——非线性函数拟合 第3章 遗传算法优化BP神经网络——非线性函数拟合 第4章 神经网络遗传算法函数极值寻优——非线性函数极值寻...

空空如也

空空如也

1 2 3 4
收藏数 67
精华内容 26
关键字:

matlabbp神经网络回归预测

matlab 订阅