精华内容
下载资源
问答
  • R语言BP神经网络实例

    万次阅读 2017-11-24 10:43:19
    某实验所测数据如下,根据实验测得数据使用BP神经网络的方法预测第18,19,20个数据的y值。 1 2 3 4 5 6 7 8 9 x1 -0.12 0.53 -0.63 -0.11 0.42 -0.45

    某实验所测数据如下,根据实验测得数据使用BP神经网络的方法预测第18,19,20个数据的y值。

     

    1

    2

    3

    4

    5

    6

    7

    8

    9

    x1

    -0.12

    0.53

    -0.63

    -0.11

    0.42

    -0.45

    0.31

    -0.76

    0.92

    x2

    -0.24

    0.59

    -0.02

    0.29

    0.51

    0.36

    -0.67

    0.00

    -0.32

    y

    0.13

    1.26

    0.42

    0.03

    0.86

    0.01

    0.13

    0.59

    0.36

     

    10

    11

    12

    13

    14

    15

    16

    17

    18

    19

    20

    0.17

    0.50

    0.01

    0.78

    0.09

    -0.70

    0.68

    0.63

    0.86

    -0.61

    0.23

    -0.55

    -0.49

    0.40

    0.92

    -0.72

    -0.48

    -0.49

    -0.51

    -0.30

    -0.50

    -0.05

    0.15

    0.00

    0.17

    2.89

    0.39

    1.41

    0.04

    0.01

     

     

     

     

    所使用的包:AMORE
    建立BP神经网络所需要的函数:newff,train和sim。


    newff(n.neurons, learning.rate.global, momentum.global, error.criterium, Stao,
           hidden.layer, output.layer, method)
    newff返回一个多层前馈神经网络对象。
    参数:
    n.neurons:一个数字型向量,第一个向量值表示训练样本输入神经元的个数,最后一个向量值表示训练样本输出神经元的个数,中间的向量值依次表示各个隐藏层神经元的个数。
    Example:n.neurons=c(12,2,4) 表示一个3层神经网络即12-2-4
    n.neurons=c(12,2,4,4) 表示一个4层神经网络即 12-2-4-4,含有2个隐层
    learning.rate.global :该参数用于设置神经元学习率
    momentum.global :设置全局动量指标,部分训练方法将用到
    error.criterium : 用于设置训练误差函数所采用的方法。包括了:
                           LMS:最小均方误差
                           LMLS : 最小均对数平方误差
                           TAO :
    Stao : 此参数用于error.TAO 函数,其他误差函数无效。
    hidden.layer : 设置隐藏层神经元采用的激励函数,包括:
                      "purelin". 线性函数
    "tansig" : 传递函数
    "sigmoid". S型函数
    "hardlim".
    "custom": 用户自定义的函数
    output.layer : 设置输出层神经元采用的激励函数,包括:
                      "purelin". 线性函数
    "tansig" : 传递函数
    "sigmoid". S型函数
    "hardlim".
    "custom": 用户自定义的函数
    method : 设置训练方法即权重更新时所采用的方法。
             ADAPTgd : 自适应梯度下降法
                ADAPTgdwm : 含有动量的自适应梯度下降法
                   BATCHgd : 批梯度下降
                  BATCHgdwm : 含有动量的批梯度下降法 


    train {AMORE} R文档
    神经网络训练功能。该函数返回具有两个元素的列表:经训练的神经网络对象,其具有通过具有动量方法的自适应反向传播和具有在训练期间获得的误差的矩阵调整的权重和偏差。如果提供了验证集,则应用早期停止技术。
    描述
    对于给定的数据集(训练集),该函数修改神经网络权重和偏差以近似训练集中存在的变量之间的关系。这些可以用于满足几个需要,即拟合非线性函数。

    用法
    train(net,P,T,Pval = NULL,Tval = NULL,error.criterium =“LMS”,report = n.shows,show.step,Stao = NA,prob = NULL,n.threads = 0L)
    参数
    net
    神经网络训练。
    P
    训练集输入值。
    T
    训练集输出值
    Pval
    验证设置可选提前停止的输入值。
    Tval
    验证设置可选提前停止的输出值。
    error.criterium
    用于测量拟合优度的标准:“LMS”,“LMLS”,“TAO”。
    Stao
    由TAO算法使用的S参数的初始值。
    report
        表示训练功能应保持安静还是应在训练过程中提供图形/书面信息的逻辑值。

        n.shows
        报告次数(如果报告为TRUE)。训练时期的总数是n.shows乘以show.step。
    show.step
        在训练结束前,训练最大次数。
    prob
        矢量与每个样本的概率,以便应用重采样训练。
    n.threads 
    要为BATCH *训练方法生成的线程数。如果<1,则产生NumberProcessors-1个线程。

    如果未找到OpenMP,则此参数将被忽略。


    sim(net,P,...)
    用于网络仿真。 


    本问题的编程

    library(AMORE)
    p<-matrix(c(-0.12,-0.24,0.53,0.59,-0.63,-0.02,-0.11,0.29,0.42,0.51,-0.45,

    0.36,0.31,-0.67,-0.76,0.00,0.92,-0.32,0.17,-0.55,0.50,-0.49,0.01,0.40,0.78,

    0.92,0.09,-0.72,-0.70,-0.48,0.68,-0.49,0.63,-0.51,0.86,-0.30,-0.61,-0.50,0

    .23,-0.05),20,2,byrow=T)
    t<-c(0.13,1.26,0.42,0.03,0.86,0.01,0.13,0.59,0.36,0.15,0.00,0.17,2.89,

    0.39,1.41,0.04,0.01)  
    net<-newff(n.neurons=c(2,5,1),learning.rate.global=1e-4,momentum.global=0.001,

    error.criterium="LMS", Stao=NA, hidden.layer="tansig", output.layer="purelin",

    method="ADAPTgdwm")
    result<-train(net,p[1:17,],t[1:17],error.criterium="LMS", report=TRUE,

    show.step=1000000, n.shows=5)
    y<-sim(result$net,p[1:20,])

    结果:

    index.show: 1 LMS 0.0144609280347882 
    index.show: 2 LMS 0.0111151809015427 
    index.show: 3 LMS 0.00882750612487179 
    index.show: 4 LMS 0.0071993747608624 
    index.show: 5 LMS 0.00580990383751156

    最后三个的预报值

    [18,]  0.31567784
    [19,]  1.12549961
    [20,]  0.01159760

    展开全文
  • 利用一类新的广义一致Bp-(pr)-不变凸函数建立了多目标规划问题的Mond-Weir型对偶,证明了弱对偶,强对偶和逆对偶定理.其结论具有一般性,推广了许多涉及不变凸函数,不变B-凸函数,(pr)-不变凸以及B-(pr)-...
  • R语言 BP神经网络

    千次阅读 2018-03-24 21:15:53
    R语言中已经有许多用于神经网络的package。例如nnet、AMORE以及neuralnet, nnet提供了最常见的前馈反向传播神经网络算法。 AMORE包则更进一步提供了更为丰富的控制参数,并可以增加多个隐藏层。 neuralnet...

    神经网络是由具有适应性的简单单元组成的广泛进行互联的网络,它的组织能够模拟生物神经系统对真实世界物体所做的交互反应。

    人工神经网络对一组输入信号和一组输出信号之间的关系建模,使用的模型来源于人类大脑对来自感觉输入的刺激是如何反应理解的。就像大脑使用一个称为神经元的相互连接的细胞网络来创建一个巨大的并行处理器,人工神经网络使用人工神经元或者节点的网络来解决学习问题。人工神经网络可以用在数据的分类、预测,甚至是无监督的模式识别。其中BP神经网络广泛使用,BP神经网络可以逼近任意连续函数,具有很强的非线性映射能力,而且网络的中间层数、各层的处理单元数及网络的学习系数等参数可根据具体情况设定,灵活性很大。


    R语言实现

    1. r语言含有神经网络包

    R语言中已经有许多用于神经网络的package。例如nnet、AMORE以及neuralnet,

    nnet提供了最常见的前馈反向传播神经网络算法。

    AMORE包则更进一步提供了更为丰富的控制参数,并可以增加多个隐藏层。

    neuralnet包的改进在于提供了弹性反向传播算法和更多的激活函数形式。

    但以上各包均围绕着BP网络,并未涉及到神经网络中的其它拓扑结构和网络模型。而新出炉的RSNNS包则在这方面有了极大的扩充。


    2. BP神经网络(多层前馈神经网络)

    nnet包中nnet函数中参数的说明:

    x:矩阵x值的例子或数据框

    Y:矩阵或数据框的例子目标值

    size:隐藏层单位数目 

    linout:切换线性输出单位 

    nnet包中的nnet(x, y, size,rang, decay, maxit, skip, Hess, trace)函数:单层的前向神经网络模型。

    size神经网络隐藏层的神经元个数;

    rang初始随机权值[-rang, rang];

    decay经元输入权重的一个修改偏正参数,表明权值是递减的(可以防止过拟合);

    maxit最大反馈迭代次数;

    skip是否允许跳过隐藏层;

    Hess是否输出Hessian值;

    trace指出是否要最优化。


    对分类数据的分类以及预测

     # 神经网络
      library(nnet);library(caret)
      
      # 加载数据
      car <- read.table('./data/car.data', sep = ',')
      colnames(car) <- c('buy', 'main', 'doors', 'capacity', 'lug_boot', 'safety', 'accept')
      
      # 数据集分为测试和训练
      ind <- createDataPartition(car$accept, times = 1, p = 0.75, list = FALSE)
      carTR <- car[ind, ]
      carTE <- car[-ind, ]
      
      # BP神经网络
      nnet.model <- nnet(accept ~ ., data = carTR, size = 3, maxit = 300,  rang = 0.1, decay = 5e-4)
      # 构建混淆矩阵
      nnet.0 <- table(actual = carTR$accept, predict = predict(nnet.model, data = carTR, type = 'class')) # 分类数据预测
      # 计算误差率
      1 - sum(diag(nnet.0))/sum(nnet.0)

    其他包学习参照:https://blog.csdn.net/c1z2w3456789/article/details/52582478?locationNum=5&fps=1






    展开全文
  • 在本教程中,您将学习如何在R中创建神经网络模型。 神经网络(或人工神经网络)具有通过样本进行学习的能力。人工神经网络是一种受生物神经元系统启发的信息处理模型。它由大量高度互连的处理元件(称为神经元)...

    原文链接:http://tecdat.cn/?p=19936 

    原文出处:拓端数据部落公众号

    在本教程中,您将学习如何在R中创建神经网络模型。

    神经网络(或人工神经网络)具有通过样本进行学习的能力。人工神经网络是一种受生物神经元系统启发的信息处理模型。它由大量高度互连的处理元件(称为神经元)组成,以解决问题。它遵循非线性路径,并在整个节点中并行处理信息。神经网络是一个复杂的自适应系统。自适应意味着它可以通过调整输入权重来更改其内部结构。

    该神经网络旨在解决人类容易遇到的问题和机器难以解决的问题,例如识别猫和狗的图片,识别编号的图片。这些问题通常称为模式识别。它的应用范围从光学字符识别到目标检测。

    本教程将涵盖以下主题:

    • 神经网络概论
    • 正向传播和反向传播
    • 激活函数
    • R中神经网络的实现
    • 案例
    • 利弊
    • 结论

    神经网络概论

    神经网络是受人脑启发执行特定任务的算法。是一组连接的输入/输出单元,其中每个连接都具有与之关联的权重。在学习阶段,网络通过调整权重进行学习,来预测给定输入的正确类别标签。

    人脑由数十亿个处理信息的神经细胞组成。每个神经细胞都认为是一个简单的处理系统。被称为生物神经网络的神经元通过电信号传输信息。这种并行的交互系统使大脑能够思考和处理信息。一个神经元的树突接收来自另一个神经元的输入信号,并根据这些输入将输出响应到某个其他神经元的轴突。

    树突接收来自其他神经元的信号。单元体将所有输入信号求和以生成输出。当总和达到阈值时通过轴突输出。突触是神经元相互作用的一个点。它将电化学信号传输到另一个神经元。

    x1,x2 .... xn是输入变量。w1,w2 .... wn是各个输入的权重。b是偏差,将其与加权输入相加即可形成输入。偏差和权重都是神经元的可调整参数。使用一些学习规则来调整参数。神经元的输出范围可以从-inf到+ inf。神经元不知道边界。因此,我们需要神经元的输入和输出之间的映射机制。将输入映射到输出的这种机制称为激活函数。

    前馈和反馈人工神经网络

    人工神经网络主要有两种类型:前馈和反馈人工神经网络。前馈神经网络是非递归网络。该层中的神经元仅与下一层中的神经元相连,并且它们不形成循环。在前馈中,信号仅在一个方向上流向输出层。

    反馈神经网络包含循环。通过在网络中引入环路,信号可以双向传播。反馈周期会导致网络行为根据其输入随时间变化。反馈神经网络也称为递归神经网络。

    激活函数

    激活函数定义神经元的输出。激活函数使神经网络具有非线性和可表达性。有许多激活函数:

    • 识别函数 通过激活函数 Identity,节点的输入等于输出。它完美拟合于潜在行为是线性(与线性回归相似)的任务。当存在非线性,单独使用该激活函数是不够的,但它依然可以在最终输出节点上作为激活函数用于回归任务。。
    • 在 二元阶梯函数(Binary Step Function)中,如果Y的值高于某个特定值(称为阈值),则输出为True(或已激活),如果小于阈值,则输出为false(或未激活)。这在分类器中非常有用。
    • S形函数 称为S形函数。逻辑和双曲正切函数是常用的S型函数。有两种:
      • Sigmoid函数 是一种逻辑函数,其中输出值为二进制或从0到1变化。
      • tanh函数 是一种逻辑函数,其输出值在-1到1之间变化。也称为双曲正切函数或tanh。
    • ReLU函数又称为修正线性单元(Rectified Linear Unit),是一种分段线性函数,其弥补了sigmoid函数以及tanh函数的梯度消失问题。它是最常用的激活函数。对于x的负值,它输出0。

    在R中实现神经网络

    创建训练数据集

    我们创建数据集。在这里,您需要数据中的两种属性或列:特征和标签。在上面显示的表格中,您可以查看学生的专业知识,沟通技能得分和学生成绩。因此,前两列(专业知识得分和沟通技能得分)是特征,第三列(学生成绩)是二进制标签。

    #创建训练数据集
    # 在这里,把多个列或特征组合成一组数据
    test=data.frame(专业知识,沟通技能得分)
    让我们构建神经网络分类器模型。
    首先,导入神经网络库,并通过传递标签和特征的参数集,数据集,隐藏层中神经元的数量以及误差计算来创建神经网络分类器模型。
    
    # 拟合神经网络
    nn(成绩~专业知识+沟通技能得分, hidden=3,act.fct = "logistic",
                    linear.output = FALSE)
    

    这里得到模型的因变量、自变量、损失函数、激活函数、权重、结果矩阵(包含达到的阈值,误差,AIC和BIC以及每次重复的权重的矩阵)等信息:

    $model.list
    $model.list$response
    [1] "成绩"
    
    $model.list$variables
    [1] "专业知识"     "沟通技能得分"
    
    
    $err.fct
    function (x, y) 
    {
        1/2 * (y - x)^2
    }
    $act.fct
    function (x) 
    {
        1/(1 + exp(-x))
    }
    $net.result
    $net.result[[1]]
                [,1]
    [1,] 0.980052980
    [2,] 0.001292503
    [3,] 0.032268860
    [4,] 0.032437961
    [5,] 0.963346989
    [6,] 0.977629865
    
    
    $weights
    $weights[[1]]
    $weights[[1]][[1]]
               [,1]        [,2]       [,3]
    [1,]  3.0583343  3.80801996 -0.9962571
    [2,]  1.2436662 -0.05886708  1.7870905
    [3,] -0.5240347 -0.03676600  1.8098647
    
    $weights[[1]][[2]]
               [,1]
    [1,]   4.084756
    [2,]  -3.807969
    [3,] -11.531322
    [4,]   3.691784
    
    
    
    $generalized.weights
    $generalized.weights[[1]]
                [,1]       [,2]
    [1,]  0.15159066 0.09467744
    [2,]  0.01719274 0.04320642
    [3,]  0.15657354 0.09778953
    [4,] -0.46017408 0.34621212
    [5,]  0.03868753 0.02416267
    [6,] -0.54248384 0.37453006
    
    
    $startweights
    $startweights[[1]]
    $startweights[[1]][[1]]
               [,1]        [,2]       [,3]
    [1,]  0.1013318 -1.11757311 -0.9962571
    [2,]  0.8583704 -0.15529112  1.7870905
    [3,] -0.8789741  0.05536849  1.8098647
    
    $startweights[[1]][[2]]
               [,1]
    [1,] -0.1283200
    [2,] -1.0932526
    [3,] -1.0077311
    [4,] -0.5212917
    
    
    
    $result.matrix
                                      [,1]
    error                      0.002168460
    reached.threshold          0.007872764
    steps                    145.000000000
    Intercept.to.1layhid1      3.058334288
    专业知识.to.1layhid1       1.243666180
    沟通技能得分.to.1layhid1  -0.524034687
    Intercept.to.1layhid2      3.808019964
    专业知识.to.1layhid2      -0.058867076
    沟通技能得分.to.1layhid2  -0.036766001
    Intercept.to.1layhid3     -0.996257068
    专业知识.to.1layhid3       1.787090472
    沟通技能得分.to.1layhid3   1.809864672
    Intercept.to.成绩          4.084755522
    1layhid1.to.成绩          -3.807969087
    1layhid2.to.成绩         -11.531321534
    1layhid3.to.成绩           3.691783805

    绘制神经网络

    让我们绘制您的神经网络模型。

    # 绘图神经网络
    plot(nn)
    

    创建测试数据集

    创建测试数据集:专业知识得分和沟通技能得分

    # 创建测试集
    test=data.frame(专业知识,沟通技能得分)
    

    预测测试集的结果

    使用计算函数预测测试数据的概率得分。

    ## 使用神经网络进行预测
    
    Pred$result
    0.9928202080
    0.3335543925
    0.9775153014

    现在,将概率转换为二进制类。

    # 将概率转换为设置阈值0.5的二进制类别
    pred <- ifelse(prob>0.5, 1, 0)
    pred
    

    1
    0
    1

    预测结果为1,0和1。

    利弊

    神经网络更灵活,可以用于回归和分类问题。神经网络非常适合具有大量输入(例如图像)的非线性数据集,可以使用任意数量的输入和层,可以并行执行工作。

    还有更多可供选择的算法,例如SVM,决策树和回归算法,这些算法简单,快速,易于训练并提供更好的性能。神经网络更多的是黑盒子,需要更多的开发时间和更多的计算能力。与其他机器学习算法相比,神经网络需要更多的数据。NN仅可用于数字输入和非缺失值数据集。一位著名的神经网络研究人员说:  “神经网络是解决任何问题的第二好的方法。最好的方法是真正理解问题。”

    神经网络的用途

    神经网络的特性提供了许多应用方面,例如:

    • 模式识别: 神经网络非常适合模式识别问题,例如面部识别,物体检测,指纹识别等。
    • 异常检测: 神经网络擅长异常检测,它们可以轻松检测出不适合常规模式的异常模式。
    • 时间序列预测: 神经网络可用于预测时间序列问题,例如股票价格,天气预报。
    • 自然语言处理: 神经网络在自然语言处理任务中提供了广泛的应用,例如文本分类,命名实体识别(NER),词性标记,语音识别和拼写检查。


    最受欢迎的见解

    1.r语言用神经网络改进nelson-siegel模型拟合收益率曲线分析

    2.r语言实现拟合神经网络预测和结果可视化

    3.python用遗传算法-神经网络-模糊逻辑控制算法对乐透分析

    4.用于nlp的python:使用keras的多标签文本lstm神经网络分类

    5.用r语言实现神经网络预测股票实例

    6.R语言基于Keras的小数据集深度学习图像分类

    7.用于NLP的seq2seq模型实例用Keras实现神经机器翻译

    8.python中基于网格搜索算法优化的深度学习模型分析糖

    9.matlab使用贝叶斯优化的深度学习

    展开全文
  • 前言本文基于R实现BP神经网络用以预测,输入属性有三个,输出属性一个,隐藏层设置20个神经元,数据如下:代码library(grid)  library(MASS) library(neuralnet) #加载相应的程序包,这里用的是neuralnet,还可以用...

    前言

    本文基于R实现BP神经网络用以预测,输入属性有三个,输出属性一个,隐藏层设置20个神经元,数据如下:


    代码

    library(grid)    
    library(MASS)
    library(neuralnet) #加载相应的程序包,这里用的是neuralnet,还可以用nnet、tensorflow实现
    p <- matrix(c(80.0,90.0,180.0,140.0,3.0,8.0,20.0,16.0,50.0,70.0,120.0,90.0),4,3,byrow = T)
    t <- c(11.0,12.5,20.0,18.0)
    trainingdata <- cbind(p,t) #合并数据集
    trainingdata
    colnames(trainingdata) <- c("Input1","Input2","Input3","Output")
    net <- neuralnet(Output~Input1+Input2+Input3,trainingdata, hidden=20, threshold=0.005, learningrate = 0.1, algorithm = "rprop+", err.fct = "sse", act.fct = "logistic")  #建立神经网络模型解决回归预测,三个输入,一个输出,隐藏层20个神经元,阈值为0.005,学习率为0.1,选用rprop+方法进行参数优化,损失函数SSE,激活函数logistic  
    print(net)   
    plot(net)   #画网络图
    testdata <- matrix(c(120.0,5.0,85.0),1,3,byrow = T) #建立测试集
    net.results <- compute(net, testdata)   #利用训练好的模型进行预测
    ls(net.results)   
    print(net.results$net.result)  #输出预测值

    网络图



    展开全文
  • <p>我用的neuralnet包来做的神经网络,测试集RMSE高达400,想用正则化来处理,知道大致原理,但是没有找到大概的R代码,希望有朋友指导下,感谢!</p>
  • BP

    2019-03-18 20:00:26
    load('-mat','C:\Program Files\MATLAB\R2016a\bin\myself_project\BP2.mat'); %导入训练好的模型 num1=input('enter a matix:'); %输入 inputn_test=mapminmax('apply',num1,PS); y=sim(net,inputn_test); outputn_...
  • 神经网络学习 之 BP神经网络

    万次阅读 多人点赞 2015-11-30 21:17:56
    上一次我们讲了M-P模型,它实际上就是对单个神经元的一种建模,还不足以模拟人脑神经系统的功能。由这些人工神经元构建出来的网络,才能够具有学习、联想、记忆和模式识别的能力。BP网络就是一种简单的人工神经网络...
  • R BP神经网络建模报错

    2017-09-30 02:59:41
    sample_Index (y=norm.data[,5], p=0.7,list= FALSE) train_data (norm.data[sample_Index,]) test_data (norm.data[-sample_Index,]) net <- newff(n.neurons = c(4,3,1), learning.rate.global = 1e-2, momentum....
  • -read.table('G:\\dataguru\\ML\\ML09\\基于BP网络的个人信贷信用评估\\基于BP网络的个人信贷信用评估\\german.data-numeric')for (i in 1:25) {data[,i] <- as.numeric(as.vector(data)[,i])}pos<-data[whic....
  • 这里写目录标题数据获取David数据获取David数据分析KEGG绘图GO绘图CC绘图BP绘图 数据获取 David数据获取 David数据分析 KEGG绘图 GO绘图 CC绘图 BP绘图
  • BP神经网络matlab代码讲解与实现步骤

    万次阅读 多人点赞 2020-04-02 01:39:51
    BP神经网络matlab代码实现 文章目录BP神经网络matlab代码实现1. BP神经网络的简介和结构参数1.1 BP神经网络的结构组成1.2 BP神经网络训练界面的参数解读2. 实现BP网络的步骤3. matlab代码编写4. BP代码运行结果4.1 ...
  • BP神经网络

    千次阅读 2018-05-02 15:15:21
    1、BP(Back propagation)神经网络描述 2、BP神经网络的向前传播 3、BP神经网络的代价函数(损失函数) 4、BP神经网络的反向传播 5、BP神经网络优化过程总结 6、BP神经网络的进一步优化 1、BP(Back ...
  • <p>I'm writing a wrapper over a Soong's module type, where I want to add ...<p>I want to read Cflags from Android.bp and based on it's value, need to append/remove some additional cflags.</p> </div>
  • 机器学习与RBP神经网络

    千次阅读 2016-07-26 17:32:50
    p(concrete_model, concrete_test[1:8]) concrete ("concrete.csv") str(concrete) # custom normalization function normalize (x) { return((x - min(x)) / (max(x) - min(x))) } # apply ...
  • Android.bp入门指南之浅析Android.bp语法

    万次阅读 多人点赞 2020-02-20 11:15:54
          Android.bp入门指南之语法初识 前言   在前面的章节初始Android.bp里面我们对Android.bp有了一个基本的认识,知道了它是干啥的。算了吗,还是再介绍一遍它吗!Android.bp是用来替换Android.mk的配置...
  • 所使用的包:AMORE建立BP神经网络所需要的函数:newff,train和sim。newff(n.neurons, learning.rate.global, momentum.global,error.criterium, Stao,hidden.layer, output.layer, method)参数:n.neurons:一个...
  • 运用Matlab创建BP神经网络(R2010b)BP神经网络属于前向网络以下为创建BP神经网络的方法及参数意义(1)net=newff(P,T,S)或者net = newff(P,T,S,TF,BTF,BLF,PF,IPF,OPF,DDF)P:输入参数矩阵。(RxQ1)T:目标参数矩阵。...
  • GA-BP
  • SAP BP同步程序

    2020-09-28 14:45:36
    SAP自动同步BP时可能失败,一下程序可手动同步 ...RPU46CX_CENTRAL_PERSON_ONLINE XPRA: 参考人员编号的转换(更新CP-P关系) RSUID_REMOVE_FALSE_BP_ASGN 删除无效的业务伙伴分配 /SHCM/RH_SYNC_BUPA_EMP
  • clear %数据输入 huanghe_p=[370 503 434 575 490 420 560 640 558 343 326 405 446 423 422 697 598 377 435 472 451 667 601 689 541 485 425 389 382 707 422]; huanghe_t=[515 ...
  •     Android.bp入门指南之Android.mk转换成Android.bp 前言   在前面的篇章初识Android.bp和Android.bp入门指南之语法初识我们对Android.bp是啥和基本语法都有了一个初步层次的认识。Android的妈咪谷歌当然也...
  • 运用Matlab创建BP神经网络

    万次阅读 2019-05-20 17:21:22
    运用Matlab创建BP神经网络(R2010b) 一、BP神经网络属于前向网络 1、以下为创建BP神经网络的方法及参数意义 net=newff(P,T,S)或者net = newff(P,T,S,TF,BTF,BLF,PF,IPF,OPF,DDF) 参数说明: (1)P:输入参数...
  • 【Matlab学习手记】BP神经网络数据预测

    万次阅读 多人点赞 2018-08-11 09:50:55
    目的:利用BP神经网络进行数据预测。 原理 代码 clear; clc; TestSamNum = 20; % 学习样本数量 ForcastSamNum = 2; % 预测样本数量 HiddenUnitNum=8; % 隐含层 InDim = 3; % 输入层 OutDi...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 28,678
精华内容 11,471
关键字:

bppr