精华内容
下载资源
问答
  • 最近一段时间在研究如何利用...发现神经网络模型可以来预测,并且有很多是结合时间序列或者SVM(支持向量机)等组合模型来进行预测,本文结合实际数据,选取了常用的BP神经网络算法,其算法原理,因网上一大堆,所以...

      最近一段时间在研究如何利用预测其销量个数,在网上搜索了一下,发现了很多模型来预测,比如利用回归模型、时间序列模型,GM(1,1)模型,可是自己在结合实际的工作内容,发现这几种模型预测的精度不是很高,于是再在网上进行搜索,发现神经网络模型可以来预测,并且有很多是结合时间序列或者SVM(支持向量机)等组合模型来进行预测,本文结合实际数据,选取了常用的BP神经网络算法,其算法原理,因网上一大堆,所以在此不必一一展示,并参考了bp神经网络进行交通预测的Matlab源代码这篇博文,运用matlab 2016a,给出了下面的代码,并最终进行了预测

    clc
    
    clear all
    
    close all
    
    %bp 神经网络的预测代码
    
    %载入输出和输入数据
    
    load C:\Users\amzon\Desktop\p.txt;
    
    load C:\Users\amzon\Desktop\t.txt;
    
    %保存数据到matlab的工作路径里面
    
    save p.mat;
    
    save t.mat;%注意t必须为行向量
    
    %赋值给输出p和输入t
    
    p=p;
    
    t=t;
    
    %数据的归一化处理,利用mapminmax函数,使数值归一化到[-1.1]之间
    
    %该函数使用方法如下:[y,ps] =mapminmax(x,ymin,ymax),x需归化的数据输入,
    
    %ymin,ymax为需归化到的范围,不填默认为归化到[-1,1]
    
    %返回归化后的值y,以及参数ps,ps在结果反归一化中,需要调用
    
    [p1,ps]=mapminmax(p);
    
    [t1,ts]=mapminmax(t);
    
    %确定训练数据,测试数据,一般是随机的从样本中选取70%的数据作为训练数据
    
    %15%的数据作为测试数据,一般是使用函数dividerand,其一般的使用方法如下:
    
    %[trainInd,valInd,testInd] = dividerand(Q,trainRatio,valRatio,testRatio)
    
    [trainsample.p,valsample.p,testsample.p] =dividerand(p,0.7,0.15,0.15);
    
    [trainsample.t,valsample.t,testsample.t] =dividerand(t,0.7,0.15,0.15);
    
    %建立反向传播算法的BP神经网络,使用newff函数,其一般的使用方法如下
    
    %net = newff(minmax(p),[隐层的神经元的个数,输出层的神经元的个数],{隐层神经元的传输函数,输出层的传输函数},'反向传播的训练函数'),其中p为输入数据,t为输出数据
    
    %tf为神经网络的传输函数,默认为'tansig'函数为隐层的传输函数,
    
    %purelin函数为输出层的传输函数
    
    %一般在这里还有其他的传输的函数一般的如下,如果预测出来的效果不是很好,可以调节
    
    %TF1 = 'tansig';TF2 = 'logsig';
    
    %TF1 = 'logsig';TF2 = 'purelin';
    
    %TF1 = 'logsig';TF2 = 'logsig';
    
    %TF1 = 'purelin';TF2 = 'purelin';
    
    TF1='tansig';TF2='purelin';
    
    net=newff(minmax(p),[10,1],{TF1 TF2},'traingdm');%网络创建
    
    %网络参数的设置
    
    net.trainParam.epochs=10000;%训练次数设置
    
    net.trainParam.goal=1e-7;%训练目标设置
    
    net.trainParam.lr=0.01;%学习率设置,应设置为较少值,太大虽然会在开始加快收敛速度,但临近最佳点时,会产生动荡,而致使无法收敛
    
    net.trainParam.mc=0.9;%动量因子的设置,默认为0.9
    
    net.trainParam.show=25;%显示的间隔次数
    
    % 指定训练参数
    
    % net.trainFcn = 'traingd'; % 梯度下降算法
    
    % net.trainFcn = 'traingdm'; % 动量梯度下降算法
    
    % net.trainFcn = 'traingda'; % 变学习率梯度下降算法
    
    % net.trainFcn = 'traingdx'; % 变学习率动量梯度下降算法
    
    % (大型网络的首选算法)
    
    % net.trainFcn = 'trainrp'; % RPROP(弹性BP)算法,内存需求最小
    
    % 共轭梯度算法
    
    % net.trainFcn = 'traincgf'; %Fletcher-Reeves修正算法
    
    % net.trainFcn = 'traincgp'; %Polak-Ribiere修正算法,内存需求比Fletcher-Reeves修正算法略大
    
    % net.trainFcn = 'traincgb'; % Powell-Beal复位算法,内存需求比Polak-Ribiere修正算法略大
    
    % (大型网络的首选算法)
    
    %net.trainFcn = 'trainscg'; % ScaledConjugate Gradient算法,内存需求与Fletcher-Reeves修正算法相同,计算量比上面三种算法都小很多
    
    % net.trainFcn = 'trainbfg'; %Quasi-Newton Algorithms - BFGS Algorithm,计算量和内存需求均比共轭梯度算法大,但收敛比较快
    
    % net.trainFcn = 'trainoss'; % OneStep Secant Algorithm,计算量和内存需求均比BFGS算法小,比共轭梯度算法略大
    
    % (中型网络的首选算法)
    
    %net.trainFcn = 'trainlm'; %Levenberg-Marquardt算法,内存需求最大,收敛速度最快
    
    % net.trainFcn = 'trainbr'; % 贝叶斯正则化算法
    
    % 有代表性的五种算法为:'traingdx','trainrp','trainscg','trainoss', 'trainlm'
    
    %在这里一般是选取'trainlm'函数来训练,其算对对应的是Levenberg-Marquardt算法
    
    net.trainFcn='trainlm';
    
    [net,tr]=train(net,trainsample.p,trainsample.t);
    
    %计算仿真,其一般用sim函数
    
    [normtrainoutput,trainPerf]=sim(net,trainsample.p,[],[],trainsample.t);%训练的数据,根据BP得到的结果
    
    [normvalidateoutput,validatePerf]=sim(net,valsample.p,[],[],valsample.t);%验证的数据,经BP得到的结果
    
    [normtestoutput,testPerf]=sim(net,testsample.p,[],[],testsample.t);%测试数据,经BP得到的结果
    
    %将所得的结果进行反归一化,得到其拟合的数据
    
    trainoutput=mapminmax('reverse',normtrainoutput,ts);
    
    validateoutput=mapminmax('reverse',normvalidateoutput,ts);
    
    testoutput=mapminmax('reverse',normtestoutput,ts);
    
    %正常输入的数据的反归一化的处理,得到其正式值
    
    trainvalue=mapminmax('reverse',trainsample.t,ts);%正常的验证数据
    
    validatevalue=mapminmax('reverse',valsample.t,ts);%正常的验证的数据
    
    testvalue=mapminmax('reverse',testsample.t,ts);%正常的测试数据
    
    %做预测,输入要预测的数据pnew
    
    pnew=[313,256,239]';
    
    pnewn=mapminmax(pnew);
    
    anewn=sim(net,pnewn);
    
    anew=mapminmax('reverse',anewn,ts);
    
    %绝对误差的计算
    
    errors=trainvalue-trainoutput;
    
    %plotregression拟合图
    
    figure,plotregression(trainvalue,trainoutput)
    
    %误差图
    
    figure,plot(1:length(errors),errors,'-b')
    
    title('误差变化图')
    
    %误差值的正态性的检验
    
    figure,hist(errors);%频数直方图
    
    figure,normplot(errors);%Q-Q图
    
    [muhat,sigmahat,muci,sigmaci]=normfit(errors);%参数估计 均值,方差,均值的0.95置信区间,方差的0.95置信区间
    
    [h1,sig,ci]= ttest(errors,muhat);%假设检验
    
    figure, ploterrcorr(errors);%绘制误差的自相关图
    
    figure, parcorr(errors);%绘制偏相关图

    运行之后的,结果如下:

    BP神经网络的结果分析图

    训练数据的梯度和均方误差之间的关系图

    验证数据的梯度与学习次数

    残差的正态的检验图(Q-Q图)

     

     

    在网上,发现可以通过神经网络工具箱这个GUI界面来创建神经网络,其一般的操作步骤如下:

    1:在输入命令里面输入nntool命令,或者在应用程序这个选项下找到Netrual Net Fitting 这个应用程序,点击打开,就能看见如下界面

     

     

     

    2:输入数据和输出数据的导入(在本文中选取了matlab自带的案例数据)


    3:随机选择三种类型的数据所占的样本量的比例,一般选取默认即可
     



    4:隐层神经元的确定
                                                                                  


    5:训练算法的选取,一般是选择默认即可,选择完成后点击<train>按钮即可运行程序




    6:根据得到的结果,一般是MSE的值越小,R值越接近1,其训练的效果比较,并第二张图给出了神经网络的各参数的设置以及其最终的结果,其拟合图R越接近1,模型拟合的更好








    最终的结果图

    7:如果所得到的模型不能满足你的需求,则需重复上述的步骤直至能够得到你想要的精确度

    8:将最终的得到的各种数据以及其拟合值进行保存,然后查看,就可以得到所要的拟合值



    最后参考了网上和MATLAB的帮助,给出了一些与神经网络相关的函数,希望能够帮助大家。。
     图形用户界面功能。 
        nnstart - 神经网络启动GUI 
        nctool - 神经网络分类工具 
        nftool - 神经网络的拟合工具 
        nntraintool - 神经网络的训练工具 
        nprtool - 神经网络模式识别工具 
        ntstool - NFTool神经网络时间序列的工具 
        nntool - 神经网络工具箱的图形用户界面。 
        查看 - 查看一个神经网络。 
      
      网络的建立功能。 
        cascadeforwardnet - 串级,前馈神经网络。 
        competlayer - 竞争神经层。 
        distdelaynet - 分布时滞的神经网络。 
        elmannet - Elman神经网络。 
        feedforwardnet - 前馈神经网络。 
        fitnet - 函数拟合神经网络。 
        layrecnet - 分层递归神经网络。 
        linearlayer - 线性神经层。 
        lvqnet - 学习矢量量化(LVQ)神经网络。 
        narnet - 非线性自结合的时间序列网络。 
        narxnet - 非线性自结合的时间序列与外部输入网络。 
        newgrnn - 设计一个广义回归神经网络。 
        newhop - 建立经常性的Hopfield网络。 
        newlind - 设计一个线性层。 
        newpnn - 设计概率神经网络。 
        newrb - 径向基网络设计。 
        newrbe - 设计一个确切的径向基网络。 
        patternnet - 神经网络模式识别。 
        感知 - 感知。 
        selforgmap - 自组织特征映射。 
        timedelaynet - 时滞神经网络。 
      
      利用网络。 
        网络 - 创建一个自定义神经网络。 
        SIM卡 - 模拟一个神经网络。 
        初始化 - 初始化一个神经网络。 
        适应 - 允许一个神经网络来适应。 
        火车 - 火车的神经网络。 
        DISP键 - 显示一个神经网络的属性。 
        显示 - 显示的名称和神经网络属性 
        adddelay - 添加延迟神经网络的反应。 
        closeloop - 神经网络的开放反馈转换到关闭反馈回路。 
        formwb - 表格偏见和成单个向量的权重。 
        getwb - 将它作为一个单一向量中的所有网络权值和偏差。 
        noloop - 删除神经网络的开放和关闭反馈回路。 
        开环 - 转换神经网络反馈,打开封闭的反馈循环。 
        removedelay - 删除延迟神经网络的反应。 
        separatewb - 独立的偏见和重量/偏置向量的权重。 
        setwb - 将所有与单个矢量网络权值和偏差。 
      
      Simulink的支持。 
        gensim - 生成Simulink模块来模拟神经网络。 
        setsiminit - 集神经网络的Simulink模块的初始条件 
        getsiminit - 获取神经网络Simulink模块的初始条件 
        神经元 - 神经网络Simulink的模块库。 
      
      培训职能。 
        trainb - 批具有重量与偏见学习规则的培训。 
        trainbfg - 的BFGS拟牛顿倒传递。 
        trainbr - 贝叶斯规则的BP算法。 
        trainbu - 与重量与偏见一批无监督学习规则的培训。 
        trainbuwb - 与体重无监督学习规则与偏见一批培训。 
        trainc - 循环顺序重量/偏见的培训。 
        traincgb - 共轭鲍威尔比尔重新启动梯度反向传播。 
        traincgf - 共轭弗莱彻-里夫斯更新梯度反向传播。 
        traincgp - 共轭波拉克- Ribiere更新梯度反向传播。 
        traingd - 梯度下降反向传播。 
        traingda - 具有自适应LR的反向传播梯度下降。 
        traingdm - 与动量梯度下降。 
        traingdx - 梯度下降瓦特/惯性与自适应LR的反向传播。 
        trainlm - 采用Levenberg -马奎德倒传递。 
        trainoss - 一步割线倒传递。 
        trainr - 随机重量/偏见的培训。 
        trainrp - RPROP反向传播。 
        trainru - 无监督随机重量/偏见的培训。 
        火车 - 顺序重量/偏见的培训。 
        trainscg - 规模化共轭梯度BP算法。 
      
      绘图功能。 
        plotconfusion - 图分类混淆矩阵。 
        ploterrcorr - 误差自相关时间序列图。 
        ploterrhist - 绘制误差直方图。 
        plotfit - 绘图功能适合。 
        plotinerrcorr - 图输入错误的时间序列的互相关。 
        plotperform - 小区网络性能。 
        plotregression - 线性回归情节。 
        plotresponse - 动态网络图的时间序列响应。 
        plotroc - 绘制受试者工作特征。 
        plotsomhits - 小区自组织图来样打。 
        plotsomnc - 小区自组织映射邻居的连接。 
        plotsomnd - 小区自组织映射邻居的距离。 
        plotsomplanes - 小区自组织映射重量的飞机。 
        plotsompos - 小区自组织映射重量立场。 
        plotsomtop - 小区自组织映射的拓扑结构。 
        plottrainstate - 情节训练状态值。 
        plotwb - 图寒春重量和偏差值图。 
      
      列出其他神经网络实现的功能。 
        nnadapt - 适应职能。 
        nnderivati​​ve - 衍生功能。 
        nndistance - 距离函数。 
        nndivision - 除功能。 
        nninitlayer - 初始化层功能。 
        nninitnetwork - 初始化网络功能。 
        nninitweight - 初始化权函数。 
        nnlearn - 学习功能。 
        nnnetinput - 净输入功能。 
        nnperformance - 性能的功能。 
        nnprocess - 处理功能。 
        nnsearch - 线搜索功能。 
        nntopology - 拓扑结构的功能。 
        nntransfer - 传递函数。 
        nnweight - 重量的功能。 
     nndemos - 神经网络工具箱的示威。 
        nndatasets - 神经网络工具箱的数据集。 
        nntextdemos - 神经网络设计教科书的示威。 
        nntextbook - 神经网络设计教科书的资讯。

     

    展开全文
  • 利用MATLAB 进行BP神经网络的预测(含有神经网络工具箱) 最近一段时间在研究如何利用预测其销量个数,在网上搜索了一下,发现了很多模型来预测,比如利用回归模型、时间序列模型,GM(1,1)模型,可是自己在结合...

            利用MATLAB 进行BP神经网络的预测(含有神经网络工具箱)

      最近一段时间在研究如何利用预测其销量个数,在网上搜索了一下,发现了很多模型来预测,比如利用回归模型、时间序列模型,GM(1,1)模型,可是自己在结合实际的工作内容,发现这几种模型预测的精度不是很高,于是再在网上进行搜索,发现神经网络模型可以来预测,并且有很多是结合时间序列或者SVM(支持向量机)等组合模型来进行预测,本文结合实际数据,选取了常用的BP神经网络算法,其算法原理,因网上一大堆,所以在此不必一一展示,并参考了bp神经网络进行交通预测的Matlab源代码这篇博文,运用matlab 2016a,给出了下面的代码,并最终进行了预测

    clc
    
    clear all
    
    close all
    
    %bp 神经网络的预测代码
    
    %载入输出和输入数据
    
    load C:\Users\amzon\Desktop\p.txt;
    
    load C:\Users\amzon\Desktop\t.txt;
    
    %保存数据到matlab的工作路径里面
    
    save p.mat;
    
    save t.mat;%注意t必须为行向量
    
    %赋值给输出p和输入t
    
    p=p;
    
    t=t;
    
    %数据的归一化处理,利用mapminmax函数,使数值归一化到[-1.1]之间
    
    %该函数使用方法如下:[y,ps] =mapminmax(x,ymin,ymax),x需归化的数据输入,
    
    %ymin,ymax为需归化到的范围,不填默认为归化到[-1,1]
    
    %返回归化后的值y,以及参数ps,ps在结果反归一化中,需要调用
    
    [p1,ps]=mapminmax(p);
    
    [t1,ts]=mapminmax(t);
    
    %确定训练数据,测试数据,一般是随机的从样本中选取70%的数据作为训练数据
    
    %15%的数据作为测试数据,一般是使用函数dividerand,其一般的使用方法如下:
    
    %[trainInd,valInd,testInd] = dividerand(Q,trainRatio,valRatio,testRatio)
    
    [trainsample.p,valsample.p,testsample.p] =dividerand(p,0.7,0.15,0.15);
    
    [trainsample.t,valsample.t,testsample.t] =dividerand(t,0.7,0.15,0.15);
    
    %建立反向传播算法的BP神经网络,使用newff函数,其一般的使用方法如下
    
    %net = newff(minmax(p),[隐层的神经元的个数,输出层的神经元的个数],{隐层神经元的传输函数,输出层的传输函数},'反向传播的训练函数'),其中p为输入数据,t为输出数据
    
    %tf为神经网络的传输函数,默认为'tansig'函数为隐层的传输函数,
    
    %purelin函数为输出层的传输函数
    
    %一般在这里还有其他的传输的函数一般的如下,如果预测出来的效果不是很好,可以调节
    
    %TF1 = 'tansig';TF2 = 'logsig';
    
    %TF1 = 'logsig';TF2 = 'purelin';
    
    %TF1 = 'logsig';TF2 = 'logsig';
    
    %TF1 = 'purelin';TF2 = 'purelin';
    
    TF1='tansig';TF2='purelin';
    
    net=newff(minmax(p),[10,1],{TF1 TF2},'traingdm');%网络创建
    
    %网络参数的设置
    
    net.trainParam.epochs=10000;%训练次数设置
    
    net.trainParam.goal=1e-7;%训练目标设置
    
    net.trainParam.lr=0.01;%学习率设置,应设置为较少值,太大虽然会在开始加快收敛速度,但临近最佳点时,会产生动荡,而致使无法收敛
    
    net.trainParam.mc=0.9;%动量因子的设置,默认为0.9
    
    net.trainParam.show=25;%显示的间隔次数
    
    % 指定训练参数
    
    % net.trainFcn = 'traingd'; % 梯度下降算法
    
    % net.trainFcn = 'traingdm'; % 动量梯度下降算法
    
    % net.trainFcn = 'traingda'; % 变学习率梯度下降算法
    
    % net.trainFcn = 'traingdx'; % 变学习率动量梯度下降算法
    
    % (大型网络的首选算法)
    
    % net.trainFcn = 'trainrp'; % RPROP(弹性BP)算法,内存需求最小
    
    % 共轭梯度算法
    
    % net.trainFcn = 'traincgf'; %Fletcher-Reeves修正算法
    
    % net.trainFcn = 'traincgp'; %Polak-Ribiere修正算法,内存需求比Fletcher-Reeves修正算法略大
    
    % net.trainFcn = 'traincgb'; % Powell-Beal复位算法,内存需求比Polak-Ribiere修正算法略大
    
    % (大型网络的首选算法)
    
    %net.trainFcn = 'trainscg'; % ScaledConjugate Gradient算法,内存需求与Fletcher-Reeves修正算法相同,计算量比上面三种算法都小很多
    
    % net.trainFcn = 'trainbfg'; %Quasi-Newton Algorithms - BFGS Algorithm,计算量和内存需求均比共轭梯度算法大,但收敛比较快
    
    % net.trainFcn = 'trainoss'; % OneStep Secant Algorithm,计算量和内存需求均比BFGS算法小,比共轭梯度算法略大
    
    % (中型网络的首选算法)
    
    %net.trainFcn = 'trainlm'; %Levenberg-Marquardt算法,内存需求最大,收敛速度最快
    
    % net.trainFcn = 'trainbr'; % 贝叶斯正则化算法
    
    % 有代表性的五种算法为:'traingdx','trainrp','trainscg','trainoss', 'trainlm'
    
    %在这里一般是选取'trainlm'函数来训练,其算对对应的是Levenberg-Marquardt算法
    
    net.trainFcn='trainlm';
    
    [net,tr]=train(net,trainsample.p,trainsample.t);
    
    %计算仿真,其一般用sim函数
    
    [normtrainoutput,trainPerf]=sim(net,trainsample.p,[],[],trainsample.t);%训练的数据,根据BP得到的结果
    
    [normvalidateoutput,validatePerf]=sim(net,valsample.p,[],[],valsample.t);%验证的数据,经BP得到的结果
    
    [normtestoutput,testPerf]=sim(net,testsample.p,[],[],testsample.t);%测试数据,经BP得到的结果
    
    %将所得的结果进行反归一化,得到其拟合的数据
    
    trainoutput=mapminmax('reverse',normtrainoutput,ts);
    
    validateoutput=mapminmax('reverse',normvalidateoutput,ts);
    
    testoutput=mapminmax('reverse',normtestoutput,ts);
    
    %正常输入的数据的反归一化的处理,得到其正式值
    
    trainvalue=mapminmax('reverse',trainsample.t,ts);%正常的验证数据
    
    validatevalue=mapminmax('reverse',valsample.t,ts);%正常的验证的数据
    
    testvalue=mapminmax('reverse',testsample.t,ts);%正常的测试数据
    
    ## 得到真实值后 需要衡量模型好坏 这里我选取R2作为衡量模型的好
    R2 = corrcoef(testsample.t,testvalue);
    R2 = R2(1,2)^ 2;
    %% 画出误差图
    figure
    plot( 1:length(testvalue), testsample.t, '-or' ,1:length(testvalue) ,testvalue , '-*b');
    legend('真实值','预测值')
    xlabel('预测样本')
    ylabel('strength')
    string = {'BP网络预测结果对比';['R^2=' num2str(R2)]};
    title(string)
    
    
    %做预测,输入要预测的数据pnew
    
    pnew=[313,256,239]';
    
    pnewn=mapminmax(pnew);
    
    anewn=sim(net,pnewn);
    
    anew=mapminmax('reverse',anewn,ts);
    
    %绝对误差的计算
    
    errors=trainvalue-trainoutput;
    
    %plotregression拟合图
    
    figure,plotregression(trainvalue,trainoutput)
    
    %误差图
    
    figure,plot(1:length(errors),errors,'-b')
    
    title('误差变化图')
    
    %误差值的正态性的检验
    
    figure,hist(errors);%频数直方图
    
    figure,normplot(errors);%Q-Q图
    
    [muhat,sigmahat,muci,sigmaci]=normfit(errors);%参数估计 均值,方差,均值的0.95置信区间,方差的0.95置信区间
    
    [h1,sig,ci]= ttest(errors,muhat);%假设检验
    
    figure, ploterrcorr(errors);%绘制误差的自相关图
    
    figure, parcorr(errors);%绘制偏相关图

    运行之后的,结果如下:

    BP神经网络的结果分析图

    训练数据的梯度和均方误差之间的关系图

    验证数据的梯度与学习次数

    残差的正态的检验图(Q-Q图)

     

     

    在网上,发现可以通过神经网络工具箱这个GUI界面来创建神经网络,其一般的操作步骤如下:

    1:在输入命令里面输入nntool命令,或者在应用程序这个选项下找到Netrual Net Fitting 这个应用程序,点击打开,就能看见如下界面

     

     

     

    2:输入数据和输出数据的导入(在本文中选取了matlab自带的案例数据)


    3:随机选择三种类型的数据所占的样本量的比例,一般选取默认即可



    4:隐层神经元的确定
                                                                                 


    5:训练算法的选取,一般是选择默认即可,选择完成后点击<train>按钮即可运行程序




    6:根据得到的结果,一般是MSE的值越小,R值越接近1,其训练的效果比较,并第二张图给出了神经网络的各参数的设置以及其最终的结果,其拟合图R越接近1,模型拟合的更好








    最终的结果图

    7:如果所得到的模型不能满足你的需求,则需重复上述的步骤直至能够得到你想要的精确度

    8:将最终的得到的各种数据以及其拟合值进行保存,然后查看,就可以得到所要的拟合值



    MATLAB 与神经网络相关的函数总结如下:

     图形用户界面功能
        nnstart - 神经网络启动GUI 
        nctool - 神经网络分类工具 
        nftool - 神经网络的拟合工具 
        nntraintool - 神经网络的训练工具 
        nprtool - 神经网络模式识别工具 
        ntstool - NFTool神经网络时间序列的工具 
        nntool - 神经网络工具箱的图形用户界面。 
        查看 - 查看一个神经网络。 
      
      网络的建立功能
        cascadeforwardnet - 串级,前馈神经网络。 
        competlayer - 竞争神经层。 
        distdelaynet - 分布时滞的神经网络。 
        elmannet - Elman神经网络。 
        feedforwardnet - 前馈神经网络。 
        fitnet - 函数拟合神经网络。 
        layrecnet - 分层递归神经网络。 
        linearlayer - 线性神经层。 
        lvqnet - 学习矢量量化(LVQ)神经网络。 
        narnet - 非线性自结合的时间序列网络。 
        narxnet - 非线性自结合的时间序列与外部输入网络。 
        newgrnn - 设计一个广义回归神经网络。 
        newhop - 建立经常性的Hopfield网络。 
        newlind - 设计一个线性层。 
        newpnn - 设计概率神经网络。 
        newrb - 径向基网络设计。 
        newrbe - 设计一个确切的径向基网络。 
        patternnet - 神经网络模式识别。 
        感知 - 感知。 
        selforgmap - 自组织特征映射。 
        timedelaynet - 时滞神经网络。 
      
      利用网络
        网络 - 创建一个自定义神经网络。 
        SIM卡 - 模拟一个神经网络。 
        初始化 - 初始化一个神经网络。 
        适应 - 允许一个神经网络来适应。 
        火车 - 火车的神经网络。 
        DISP键 - 显示一个神经网络的属性。 
        显示 - 显示的名称和神经网络属性 
        adddelay - 添加延迟神经网络的反应。 
        closeloop - 神经网络的开放反馈转换到关闭反馈回路。 
        formwb - 表格偏见和成单个向量的权重。 
        getwb - 将它作为一个单一向量中的所有网络权值和偏差。 
        noloop - 删除神经网络的开放和关闭反馈回路。 
        开环 - 转换神经网络反馈,打开封闭的反馈循环。 
        removedelay - 删除延迟神经网络的反应。 
        separatewb - 独立的偏见和重量/偏置向量的权重。 
        setwb - 将所有与单个矢量网络权值和偏差。 
      
      Simulink的支持
        gensim - 生成Simulink模块来模拟神经网络。 
        setsiminit - 集神经网络的Simulink模块的初始条件 
        getsiminit - 获取神经网络Simulink模块的初始条件 
        神经元 - 神经网络Simulink的模块库。 
     
        trainb - 批具有重量与偏见学习规则的培训。 
        trainbfg - 的BFGS拟牛顿倒传递。 
        trainbr - 贝叶斯规则的BP算法。 
        trainbu - 与重量与偏见一批无监督学习规则的培训。 
        trainbuwb - 与体重无监督学习规则与偏见一批培训。 
        trainc - 循环顺序重量/偏见的培训。 
        traincgb - 共轭鲍威尔比尔重新启动梯度反向传播。 
        traincgf - 共轭弗莱彻-里夫斯更新梯度反向传播。 
        traincgp - 共轭波拉克- Ribiere更新梯度反向传播。 
        traingd - 梯度下降反向传播。 
        traingda - 具有自适应LR的反向传播梯度下降。 
        traingdm - 与动量梯度下降。 
        traingdx - 梯度下降瓦特/惯性与自适应LR的反向传播。 
        trainlm - 采用Levenberg -马奎德倒传递。 
        trainoss - 一步割线倒传递。 
        trainr - 随机重量/偏见的培训。 
        trainrp - RPROP反向传播。 
        trainru - 无监督随机重量/偏见的培训。 
        火车 - 顺序重量/偏见的培训。 
        trainscg - 规模化共轭梯度BP算法。 
      
      绘图功能
        plotconfusion - 图分类混淆矩阵。 
        ploterrcorr - 误差自相关时间序列图。 
        ploterrhist - 绘制误差直方图。 
        plotfit - 绘图功能适合。 
        plotinerrcorr - 图输入错误的时间序列的互相关。 
        plotperform - 小区网络性能。 
        plotregression - 线性回归情节。 
        plotresponse - 动态网络图的时间序列响应。 
        plotroc - 绘制受试者工作特征。 
        plotsomhits - 小区自组织图来样打。 
        plotsomnc - 小区自组织映射邻居的连接。 
        plotsomnd - 小区自组织映射邻居的距离。 
        plotsomplanes - 小区自组织映射重量的飞机。 
        plotsompos - 小区自组织映射重量立场。 
        plotsomtop - 小区自组织映射的拓扑结构。 
        plottrainstate - 情节训练状态值。 
        plotwb - 图寒春重量和偏差值图。 
      
      列出其他神经网络实现的功能
        nnadapt - 适应职能。 
        nnderivati​​ve - 衍生功能。 
        nndistance - 距离函数。 
        nndivision - 除功能。 
        nninitlayer - 初始化层功能。 
        nninitnetwork - 初始化网络功能。 
        nninitweight - 初始化权函数。 
        nnlearn - 学习功能。 
        nnnetinput - 净输入功能。 
        nnperformance - 性能的功能。 
        nnprocess - 处理功能。 
        nnsearch - 线搜索功能。 
        nntopology - 拓扑结构的功能。 
        nntransfer - 传递函数。 
        nnweight - 重量的功能。 
        nndemos - 神经网络工具箱的示威。 
        nndatasets - 神经网络工具箱的数据集。 
        nntextdemos - 神经网络设计教科书的示威。 
        nntextbook - 神经网络设计教科书的资讯。 

     

     

    Save

     

    展开全文
  •  利用MATLAB 进行BP神经网络的预测(含有神经网络工具箱)  最近一段时间在研究如何利用预测其销量个数,在网上搜索了一下,发现了很多模型来预测,比如利用回归模型、时间序列模型,GM(1,1)模型,可是自己在...
    版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
    本文链接:https://blog.csdn.net/xgxyxs/article/details/53265318

            利用MATLAB 进行BP神经网络的预测(含有神经网络工具箱)

        最近一段时间在研究如何利用预测其销量个数,在网上搜索了一下,发现了很多模型来预测,比如利用回归模型、时间序列模型,GM(1,1)模型,可是自己在结合实际的工作内容,发现这几种模型预测的精度不是很高,于是再在网上进行搜索,发现神经网络模型可以来预测,并且有很多是结合时间序列或者SVM(支持向量机)等组合模型来进行预测,本文结合实际数据,选取了常用的BP神经网络算法,其算法原理,因网上一大堆,所以在此不必一一展示,并参考了bp神经网络进行交通预测的Matlab源代码这篇博文,运用matlab 2016a,给出了下面的代码,并最终进行了预测

    1. clc
    2. clear all
    3. close all
    4. %bp 神经网络的预测代码
    5. %载入输出和输入数据
    6. load C:\Users\amzon\Desktop\p.txt;
    7. load C:\Users\amzon\Desktop\t.txt;
    8. %保存数据到matlab的工作路径里面
    9. save p.mat;
    10. save t.mat;%注意t必须为行向量
    11. %赋值给输出p和输入t
    12. p=p;
    13. t=t;
    14. %数据的归一化处理,利用mapminmax函数,使数值归一化到[-1.1]之间
    15. %该函数使用方法如下:[y,ps] =mapminmax(x,ymin,ymax),x需归化的数据输入,
    16. %ymin,ymax为需归化到的范围,不填默认为归化到[-1,1]
    17. %返回归化后的值y,以及参数ps,ps在结果反归一化中,需要调用
    18. [p1,ps]=mapminmax(p);
    19. [t1,ts]=mapminmax(t);
    20. %确定训练数据,测试数据,一般是随机的从样本中选取70%的数据作为训练数据
    21. %15%的数据作为测试数据,一般是使用函数dividerand,其一般的使用方法如下:
    22. %[trainInd,valInd,testInd] = dividerand(Q,trainRatio,valRatio,testRatio)
    23. [trainsample.p,valsample.p,testsample.p] =dividerand(p,0.7,0.15,0.15);
    24. [trainsample.t,valsample.t,testsample.t] =dividerand(t,0.7,0.15,0.15);
    25. %建立反向传播算法的BP神经网络,使用newff函数,其一般的使用方法如下
    26. %net = newff(minmax(p),[隐层的神经元的个数,输出层的神经元的个数],{隐层神经元的传输函数,输出层的传输函数},'反向传播的训练函数'),其中p为输入数据,t为输出数据
    27. %tf为神经网络的传输函数,默认为'tansig'函数为隐层的传输函数,
    28. %purelin函数为输出层的传输函数
    29. %一般在这里还有其他的传输的函数一般的如下,如果预测出来的效果不是很好,可以调节
    30. %TF1 = 'tansig';TF2 = 'logsig';
    31. %TF1 = 'logsig';TF2 = 'purelin';
    32. %TF1 = 'logsig';TF2 = 'logsig';
    33. %TF1 = 'purelin';TF2 = 'purelin';
    34. TF1='tansig';TF2='purelin';
    35. net=newff(minmax(p),[10,1],{TF1 TF2},'traingdm');%网络创建 ==(这是newff函数的旧用法,新用法在下一篇博文里面有提到)==
    36. %网络参数的设置
    37. net.trainParam.epochs=10000;%训练次数设置
    38. net.trainParam.goal=1e-7;%训练目标设置
    39. net.trainParam.lr=0.01;%学习率设置,应设置为较少值,太大虽然会在开始加快收敛速度,但临近最佳点时,会产生动荡,而致使无法收敛
    40. net.trainParam.mc=0.9;%动量因子的设置,默认为0.9
    41. net.trainParam.show=25;%显示的间隔次数
    42. % 指定训练参数
    43. % net.trainFcn = 'traingd'; % 梯度下降算法
    44. % net.trainFcn = 'traingdm'; % 动量梯度下降算法
    45. % net.trainFcn = 'traingda'; % 变学习率梯度下降算法
    46. % net.trainFcn = 'traingdx'; % 变学习率动量梯度下降算法
    47. % (大型网络的首选算法)
    48. % net.trainFcn = 'trainrp'; % RPROP(弹性BP)算法,内存需求最小
    49. % 共轭梯度算法
    50. % net.trainFcn = 'traincgf'; %Fletcher-Reeves修正算法
    51. % net.trainFcn = 'traincgp'; %Polak-Ribiere修正算法,内存需求比Fletcher-Reeves修正算法略大
    52. % net.trainFcn = 'traincgb'; % Powell-Beal复位算法,内存需求比Polak-Ribiere修正算法略大
    53. % (大型网络的首选算法)
    54. %net.trainFcn = 'trainscg'; % ScaledConjugate Gradient算法,内存需求与Fletcher-Reeves修正算法相同,计算量比上面三种算法都小很多
    55. % net.trainFcn = 'trainbfg'; %Quasi-Newton Algorithms - BFGS Algorithm,计算量和内存需求均比共轭梯度算法大,但收敛比较快
    56. % net.trainFcn = 'trainoss'; % OneStep Secant Algorithm,计算量和内存需求均比BFGS算法小,比共轭梯度算法略大
    57. % (中型网络的首选算法)
    58. %net.trainFcn = 'trainlm'; %Levenberg-Marquardt算法,内存需求最大,收敛速度最快
    59. % net.trainFcn = 'trainbr'; % 贝叶斯正则化算法
    60. % 有代表性的五种算法为:'traingdx','trainrp','trainscg','trainoss', 'trainlm'
    61. %在这里一般是选取'trainlm'函数来训练,其算对对应的是Levenberg-Marquardt算法
    62. net.trainFcn='trainlm';
    63. [net,tr]=train(net,trainsample.p,trainsample.t);
    64. %计算仿真,其一般用sim函数
    65. [normtrainoutput,trainPerf]=sim(net,trainsample.p,[],[],trainsample.t);%训练的数据,根据BP得到的结果
    66. [normvalidateoutput,validatePerf]=sim(net,valsample.p,[],[],valsample.t);%验证的数据,经BP得到的结果
    67. [normtestoutput,testPerf]=sim(net,testsample.p,[],[],testsample.t);%测试数据,经BP得到的结果
    68. %将所得的结果进行反归一化,得到其拟合的数据
    69. trainoutput=mapminmax('reverse',normtrainoutput,ts);
    70. validateoutput=mapminmax('reverse',normvalidateoutput,ts);
    71. testoutput=mapminmax('reverse',normtestoutput,ts);
    72. %正常输入的数据的反归一化的处理,得到其正式值
    73. trainvalue=mapminmax('reverse',trainsample.t,ts);%正常的验证数据
    74. validatevalue=mapminmax('reverse',valsample.t,ts);%正常的验证的数据
    75. testvalue=mapminmax('reverse',testsample.t,ts);%正常的测试数据
    76. %做预测,输入要预测的数据pnew
    77. pnew=[313,256,239]';
    78. pnewn=mapminmax(pnew);
    79. anewn=sim(net,pnewn);
    80. anew=mapminmax('reverse',anewn,ts);
    81. %绝对误差的计算
    82. errors=trainvalue-trainoutput;
    83. %plotregression拟合图
    84. figure,plotregression(trainvalue,trainoutput)
    85. %误差图
    86. figure,plot(1:length(errors),errors,'-b')
    87. title('误差变化图')
    88. %误差值的正态性的检验
    89. figure,hist(errors);%频数直方图
    90. figure,normplot(errors);%Q-Q图
    91. [muhat,sigmahat,muci,sigmaci]=normfit(errors);%参数估计 均值,方差,均值的0.95置信区间,方差的0.95置信区间
    92. [h1,sig,ci]= ttest(errors,muhat);%假设检验
    93. figure, ploterrcorr(errors);%绘制误差的自相关图
    94. figure, parcorr(errors);%绘制偏相关图

    运行之后的,结果如下:

    BP神经网络的结果分析图

    训练数据的梯度和均方误差之间的关系图

    验证数据的梯度与学习次数

    残差的正态的检验图(Q-Q图)

     

     

    在网上,发现可以通过神经网络工具箱这个GUI界面来创建神经网络,其一般的操作步骤如下:

    1:在输入命令里面输入nntool命令,或者在应用程序这个选项下找到Netrual Net Fitting 这个应用程序,点击打开,就能看见如下界面

     

     

     

    2:输入数据和输出数据的导入(在本文中选取了matlab自带的案例数据)


    3:随机选择三种类型的数据所占的样本量的比例,一般选取默认即可



    4:隐层神经元的确定
                                                                                 


    5:训练算法的选取,一般是选择默认即可,选择完成后点击<train>按钮即可运行程序




    6:根据得到的结果,一般是MSE的值越小,R值越接近1,其训练的效果比较,并第二张图给出了神经网络的各参数的设置以及其最终的结果,其拟合图R越接近1,模型拟合的更好








    最终的结果图

    7:如果所得到的模型不能满足你的需求,则需重复上述的步骤直至能够得到你想要的精确度

    8:将最终的得到的各种数据以及其拟合值进行保存,然后查看,就可以得到所要的拟合值



    MATLAB 与神经网络相关的函数总结如下:

    1.  图形用户界面功能
    2.     nnstart - 神经网络启动GUI 
    3.     nctool - 神经网络分类工具 
    4.     nftool - 神经网络的拟合工具 
    5.     nntraintool - 神经网络的训练工具 
    6.     nprtool - 神经网络模式识别工具 
    7.     ntstool - NFTool神经网络时间序列的工具 
    8.     nntool - 神经网络工具箱的图形用户界面。 
    9.     查看 - 查看一个神经网络。 
    10.   
    11.   网络的建立功能
    12.     cascadeforwardnet - 串级,前馈神经网络。 
    13.     competlayer - 竞争神经层。 
    14.     distdelaynet - 分布时滞的神经网络。 
    15.     elmannet - Elman神经网络。 
    16.     feedforwardnet - 前馈神经网络。 
    17.     fitnet - 函数拟合神经网络。 
    18.     layrecnet - 分层递归神经网络。 
    19.     linearlayer - 线性神经层。 
    20.     lvqnet - 学习矢量量化(LVQ)神经网络。 
    21.     narnet - 非线性自结合的时间序列网络。 
    22.     narxnet - 非线性自结合的时间序列与外部输入网络。 
    23.     newgrnn - 设计一个广义回归神经网络。 
    24.     newhop - 建立经常性的Hopfield网络。 
    25.     newlind - 设计一个线性层。 
    26.     newpnn - 设计概率神经网络。 
    27.     newrb - 径向基网络设计。 
    28.     newrbe - 设计一个确切的径向基网络。 
    29.     patternnet - 神经网络模式识别。 
    30.     感知 - 感知。 
    31.     selforgmap - 自组织特征映射。 
    32.     timedelaynet - 时滞神经网络。 
    33.   
    34.   利用网络
    35.     网络 - 创建一个自定义神经网络。 
    36.     SIM卡 - 模拟一个神经网络。 
    37.     初始化 - 初始化一个神经网络。 
    38.     适应 - 允许一个神经网络来适应。 
    39.     火车 - 火车的神经网络。 
    40.     DISP键 - 显示一个神经网络的属性。 
    41.     显示 - 显示的名称和神经网络属性 
    42.     adddelay - 添加延迟神经网络的反应。 
    43.     closeloop - 神经网络的开放反馈转换到关闭反馈回路。 
    44.     formwb - 表格偏见和成单个向量的权重。 
    45.     getwb - 将它作为一个单一向量中的所有网络权值和偏差。 
    46.     noloop - 删除神经网络的开放和关闭反馈回路。 
    47.     开环 - 转换神经网络反馈,打开封闭的反馈循环。 
    48.     removedelay - 删除延迟神经网络的反应。 
    49.     separatewb - 独立的偏见和重量/偏置向量的权重。 
    50.     setwb - 将所有与单个矢量网络权值和偏差。 
    51.   
    52.   Simulink的支持
    53.     gensim - 生成Simulink模块来模拟神经网络。 
    54.     setsiminit - 集神经网络的Simulink模块的初始条件 
    55.     getsiminit - 获取神经网络Simulink模块的初始条件 
    56.     神经元 - 神经网络Simulink的模块库。 
    57.  
    58.     trainb - 批具有重量与偏见学习规则的培训。 
    59.     trainbfg - 的BFGS拟牛顿倒传递。 
    60.     trainbr - 贝叶斯规则的BP算法。 
    61.     trainbu - 与重量与偏见一批无监督学习规则的培训。 
    62.     trainbuwb - 与体重无监督学习规则与偏见一批培训。 
    63.     trainc - 循环顺序重量/偏见的培训。 
    64.     traincgb - 共轭鲍威尔比尔重新启动梯度反向传播。 
    65.     traincgf - 共轭弗莱彻-里夫斯更新梯度反向传播。 
    66.     traincgp - 共轭波拉克- Ribiere更新梯度反向传播。 
    67.     traingd - 梯度下降反向传播。 
    68.     traingda - 具有自适应LR的反向传播梯度下降。 
    69.     traingdm - 与动量梯度下降。 
    70.     traingdx - 梯度下降瓦特/惯性与自适应LR的反向传播。 
    71.     trainlm - 采用Levenberg -马奎德倒传递。 
    72.     trainoss - 一步割线倒传递。 
    73.     trainr - 随机重量/偏见的培训。 
    74.     trainrp - RPROP反向传播。 
    75.     trainru - 无监督随机重量/偏见的培训。 
    76.     火车 - 顺序重量/偏见的培训。 
    77.     trainscg - 规模化共轭梯度BP算法。 
    78.   
    79.   绘图功能
    80.     plotconfusion - 图分类混淆矩阵。 
    81.     ploterrcorr - 误差自相关时间序列图。 
    82.     ploterrhist - 绘制误差直方图。 
    83.     plotfit - 绘图功能适合。 
    84.     plotinerrcorr - 图输入错误的时间序列的互相关。 
    85.     plotperform - 小区网络性能。 
    86.     plotregression - 线性回归情节。 
    87.     plotresponse - 动态网络图的时间序列响应。 
    88.     plotroc - 绘制受试者工作特征。 
    89.     plotsomhits - 小区自组织图来样打。 
    90.     plotsomnc - 小区自组织映射邻居的连接。 
    91.     plotsomnd - 小区自组织映射邻居的距离。 
    92.     plotsomplanes - 小区自组织映射重量的飞机。 
    93.     plotsompos - 小区自组织映射重量立场。 
    94.     plotsomtop - 小区自组织映射的拓扑结构。 
    95.     plottrainstate - 情节训练状态值。 
    96.     plotwb - 图寒春重量和偏差值图。 
    97.   
    98.   列出其他神经网络实现的功能
    99.     nnadapt - 适应职能。 
    100.     nnderivati​​ve - 衍生功能。 
    101.     nndistance - 距离函数。 
    102.     nndivision - 除功能。 
    103.     nninitlayer - 初始化层功能。 
    104.     nninitnetwork - 初始化网络功能。 
    105.     nninitweight - 初始化权函数。 
    106.     nnlearn - 学习功能。 
    107.     nnnetinput - 净输入功能。 
    108.     nnperformance - 性能的功能。 
    109.     nnprocess - 处理功能。 
    110.     nnsearch - 线搜索功能。 
    111.     nntopology - 拓扑结构的功能。 
    112.     nntransfer - 传递函数。 
    113.     nnweight - 重量的功能。 
    114.     nndemos - 神经网络工具箱的示威。 
    115.     nndatasets - 神经网络工具箱的数据集。 
    116.     nntextdemos - 神经网络设计教科书的示威。 
    117.     nntextbook - 神经网络设计教科书的资讯。 

     

     

    Save

     

    展开全文
  •  晚上闲的没事,突发奇想预测一下中国代表团在2012年伦敦运动会上获得金牌和奖牌的情况,使用matlab神经网络工具箱BP网络设计与分析函数进行预测,程序根据《matlab在数学建模中的应用》一书中神经网络一章中的程序...

            我越来越不喜欢matlab,因为它让我们只需要使用它的工具箱;我越来越喜欢matlab,因为在它的工具箱里隐藏着无数优秀甚至卓越的算法。

            晚上闲的没事,突发奇想预测一下中国代表团在2012年伦敦运动会上获得金牌和奖牌的情况,使用matlab神经网络工具箱BP网络设计与分析函数进行预测,程序根据《matlab在数学建模中的应用》一书中神经网络一章中的程序改编而成。

            

    clc
    %原始数据 
    %参赛人数
    sqrs=[225 301 251 309 311 411 639 ];
    %金牌数
    sqjdcs=[15 5 16 16 28 32 51];
    %奖牌数
    sqglmj=[32 28 54 50 59 63 100 ];
    p=[sqrs]  %输入数据矩阵
    t=[sqjdcs;sqglmj]         %目标数据矩阵
    %利用premnmx函数对数据进行归一化
    [pn,minp,maxp,tn,mint,maxt]=premnmx(p,t); % 对于输入矩阵p和输出矩阵t进行归一化处理
    dx=[-1,1];     %归一化处理后最小值为-1,最大值为1
    %BP网络训练
    net=newff(dx,[1,2],{'tansig','purelin'},'traingdx'); %建立模型,并用梯度下降法训练.
    net,trainParam.Lr=1; %学习速率为1
    net.trainParam.epochs=50000; %最大训练轮回为50000次
    net.trainParam.goal=3;     %均方误差
    net=train(net,pn,tn);        %开始训练,其中pn,tn分别为输入输出样本
    %利用原始数据对BP网络仿真
    an=sim(net,pn);           %用训练好的模型进行仿真
    a=postmnmx(an,mint,maxt); % 把仿真得到的数据还原为原始的数量级;
    %本例因样本容量有限使用训练数据进行测试,通常必须用新鲜数据进行测试
    x=1984:4:2008;
    newk=a(1,:);
    newh=a(2,:);
    figure (2);
    subplot(2,1,1);plot(x,newk,'r-o',x,sqjdcs,'b--+')    %绘值金牌数对比图;
    legend('网络输出金牌数','实际金牌数');
    xlabel('年份');ylabel('金牌数/枚');
    subplot(2,1,2);plot(x,newh,'r-o',x,sqglmj,'b--+')     %绘制奖牌数对比图;
    legend('网络输出奖牌数','实际奖牌数');
    xlabel('年份');ylabel('奖牌数/枚');
    %利用训练好的网络进行预测
    % 当用训练好的网络对新数据pnew进行预测时,也应作相应的处理:
    pnew=[621];           %2012年的相关数据;
    pnewn=tramnmx(pnew,minp,maxp); %利用原始输入数据的归一化参数对新数据进行归一化;
    anewn=sim(net,pnewn);            %利用归一化后的数据进行仿真;
    anew=postmnmx(anewn,mint,maxt)  %把仿真得到的数据还原为原始的数量级;

             缺点与不足:(1)对神经网络的使用经验不是很足,每次运行程序结果都会发生较大变化,需要凭借观察取得较好的预测值;(2)金牌与奖牌数量只与代表团成员人数相关显然不合理;(3)单独对金牌数或奖牌数进行预测更容易使网络输出值与实际值之间误差较小,可见根据单一因素预测不准。

            结果:多次运行程序,选取误差较小的预测情况,最终接受的预测值为金牌36枚,奖牌总数91枚。

            

            

            最后,本预测纯属娱乐,如有雷同,不胜荣幸。

    转载于:https://my.oschina.net/u/347565/blog/69657

    展开全文
  • 精品文档 实验一 利用 MATLAB实现遗传算法 一实验目的 1熟悉 MATLAB语言编程环境 2掌握 MATLAB语言命令 3学会利用 MATLAB编程实现遗传算法 二实验原理 MATLAB是美国 Math Works公司出品的商业数学软件用于算法开发...
  • MATLAB利用神经网络工具箱实现数据拟合预测控制-利用神经网络工具箱,实现数据拟合,预测控制.rar 利用神经网络工具箱,实现数据拟合,预测控制
  • 通过网络训练自适应地调整各种预测模型的权重,同时,为了避免用常规语言建立人工神经网络负荷预测模型存在的模型结构复杂,训练时间长等缺点,利用Matlab神经网络工具箱建立组合预测模型,该模型不仅编程简单,而且...
  • 神经网络理论的初学者可以利用MATLAB自带的神经网络工具箱来理解ANN算法。神经网络工具箱模型包括如下内容:· 感知器· 线性网络· BP网络· 径向基函数网络· 竞争型神经网络· 自组织网络和学习向量量化网络· ...
  • MATLAB神经网络工具箱

    2012-05-24 18:44:27
    MATLAB 7对应的神经网络工具箱的版本为Version 4.0.3,它以神经网络理论为基础,利用MATLAB脚本语言构造出典型神经网络的激活函数,如线性、竞争性和饱和线性等激活函数,使设计者对所选定网络输出的计算变成对激活函数...
  • 2/24/2020 利用MATLAB实现遗传算法和MATLAB神经网络工具箱的使用 - 图文 - 百度文库 网页 资讯 视频 图片 知道 文库 贴吧 采购 地图 | 百度首页 登录 VIP新客立减2元 意见反馈 下载客户端 实验一 利用MATLAB实现遗传...
  • 利用COM组件实现在VC中调用MATLAB神经网络工具箱
  • 如何利用matlab做BP神经网络分析
  • 接下来将围绕神经网络的原理、MATLAB神经网络工具箱的基本使用方法及相关参数含义、实例分析等部分来讲解神经网络。1 神经网络1.1 什么是神经网络我们首先看一下百度百科对神经网络的定义我们为什么需要神经网络?...
  • 利用MATLAB 2016a进行BP神经网络的预测(含有神经网络工具箱)  最近一段时间在研究如何利用预测其销量个数,在网上搜索了一下,发现了很多模型来预测,比如利用回归模型、时间序列模型,GM(1,1)模型,可是...
  • 利用matlab从头实现神经网络和调用神经网络工具箱实现对比 手写数字识别 nn_main.m:神经网络主函数,初始化,调用优化函数等 myCostfunction.m:前向传递,计算代价函数,反向传播,计算梯度 mytanh.m:激活函数tanh ...
  • MATLAB 利用自带的BP神经网络工具箱函数,对数据进行模拟预报的实例
  • 如何利用MATLAB工具箱建立神经网络人工神经网络学习笔记2——MATLAB神经网络工具箱神经网络工具箱的使用MATLAB中神经网络工具箱的使用 0.导读 首先声明,这篇文章的内容并不全是本人的原创内容,凡是引用了别人的...
  • 介绍Matlab神经网络工具箱在煤矿瓦斯治理工作中的2个成功应用实例:用BP人工神经网络建立起采煤工作面平均瓦斯相对涌出量与地质构造间的对应关系,预测未开采区域在采动时的平均瓦斯相对涌出量;利用人工神经网络拟合已...
  • VB,神经网络,matlab,代码,利用VB调用Matlab中的神经网络工具箱
  • 利用matlab神经网络工具箱必备理论,且有生动的例题讲解,是神经网络设计与学习很好的书籍。
  • matlab开发-利用工具箱实现神经网络的功能逼近。此代码实现了错误学习算法的基本反向传播
  • 文章来源: laputa_新浪博客 为了实现从VC... 我所采用的方法是利用matlab中的deploytool命令将写好的m函数(该函数的主要功能是使用神经网络工具箱来实现一个简单机器学习算法)编译成C++的动态链接库,然后再VC中调
  • 这一篇就介绍如何利用神经网络工具箱中包含的函数(其中包括BP网络创建函数、传递函数、训练函数等)进行编程,从而实现BP网络的具体功能与应用。 我用的是MATLAB 2016b,它新增了一些网络函数,并对老版中一些网络...
  • MATLAB神经网络工具箱 相关总结

    千次阅读 2019-01-03 22:39:44
    最近一段时间在研究如何...发现神经网络模型可以来预测,并且有很多是结合时间序列或者SVM(支持向量机)等组合模型来进行预测,本文结合实际数据,选取了常用的BP神经网络算法,其算法原理,因网上一大堆,所以在此...
  • 调用MATLAB Engine虽然可以实现对神经网络工具箱的功能,但是因为这种方法是基于C/S模式的,效率很低,而且需要在matlab下实现其功能,无法脱离matlab直接运行,所以,基于这个原因,我放弃了利用MATLAB Engine来...
  • 我们利用MATLAB中的深度学习工具箱生产卷积网络。整个文章分为三个部分,第一部分简单介绍MATLAB深度学习网络的相关函数,第二部分生成测试用的数据,第三部分对神经网络进行训练和测试。1. MATLAB中深度学习相关...

空空如也

空空如也

1 2 3 4 5 ... 9
收藏数 170
精华内容 68
关键字:

利用matlab神经网络工具箱

matlab 订阅