精华内容
下载资源
问答
  • PCD型自适应弹性网络在微阵列分类中的应用
  • 基于自适应弹性网络回归的目标跟踪(OBJECT TRACKING WITH ADAPTIVE ELASTIC NET REGRESSION)阅读笔记 摘要 近年来,各种基于回归的跟踪方法取得了很大的成功,然而,在大多数方法中,提取的所有特征都是用来表示...

    基于自适应弹性网络回归的目标跟踪(OBJECT TRACKING WITH ADAPTIVE ELASTIC NET REGRESSION)阅读笔记

    by:家行hang
    论文链接:
    Object tracking with adaptive elastic net regression
    Zhang, Shunli ; Xing, Weiwei
    2017 IEEE International Conference on Image Processing, Sept. 2017, pp.2597-2601

    参考:
    1. 目标跟踪简介

    摘要

    近年来,各种基于回归的跟踪方法取得了很大的成功,然而,在大多数方法中,提取的所有特征都是用来表示对象的,而不需要进行特征选择。
    (这里的意思是提取的所有特征全都用上了,而不是选择着去用)

    本文提出了一种 基于自适应权(adaptive weight)弹性网络回归 的新的跟踪方法,一方面,跟踪被表述为一个 弹性网络回归 问题,它不仅可以充分利用空间信息,而且可以自动选择特征来减轻不稳定或不准确点的影响,另一方面,回归模型中的“1范数”和“2范数”正则化会自适应调整,以更好地提高性能。实验结果表明,所提出的自适应弹性网络回归跟踪方法能够获得满意的跟踪性能。

    参考:
    1. 机器学习中的正则化
    2. 几种范数的简单介绍
    3. 范数理解(0范数,1范数,2范数)
    4. 【机器学习】正则化的线性回归 —— 岭回归与Lasso回归
    5. 为什么正则化能减少模型过拟合程度
    6. 为什么正则化(Regularization)可以减少过拟合风险

    关键词:目标追踪,弹性网络回归(elastic net regression),自适应权(adaptive weight)

    1 介绍

    目标跟踪作为计算机视觉领域的研究热点之一,在视频监控、运动分析等领域有着广泛的应用。然而,跟踪面临着严重遮挡、变形、背景复杂等多种因素,难以实现鲁棒跟踪。

    表观模型(appearance model)在跟踪中起着重要的作用,传统的表观模型一般可分为两类:
    - 生成式模型(generative model):就是只有一个模型,你把测试用例往里面一丢,label就出来了,如SVM。
    - 判别式模型(discriminative model):有多个模型(一般有多少类就有多少个),你得把测试用例分别丢到各个模型里面,最后比较其结果,选择最优的作为label,如朴素贝叶斯。

    (???表观模型中的区别呢???)

    参考:
    1. 产生式模型与判别式模型的区别
    2. 机器学习–判别式模型与生成式模型
    3. 生成式模型和判别式模型的区别
    4. 机器学习 之 生成式模型 VS 判别式模型

    近年来,一些基于回归的判别式模型取得了很大的发展,并获得了最先进的跟踪性能。例如,Hare等人提出了基于结构化输出回归的Struck方法,使用结构化输出预测来避免中间分类步骤,Henriques 等人提出了将跟踪表示为基于岭回归模型构造相关滤波器的问题,Zhang等人提出了基于混合支持向量机的跟踪方法,其中在目标的相邻样本基础上建立了支持向量回归模型。与传统的基于二分类的判别模型不同,回归模型具有一些明显的优势。例如,回归的目标和跟踪任务总是一致的,可以充分利用背景信息。然而,大多数基于回归的跟踪方法使用提取的所有特征。每个特性都被赋予相同的权重,并且不考虑特性的重要性。换句话说,就是没有特征选择。

    在跟踪过程中,我们可以观察到目标的形状可能发生变形,或者目标发生了姿势的变化。此外,目标可能被另一个物体遮挡(Fig. 1).这些因素表明目标的某些部分不稳定,可能会影响表观模型的性能。遮挡也会干扰训练样本,从而降低模型的准确度。通过选取样本的稳定准确的部分建立外观模型,可以减少变形和遮挡的影响,提高鲁棒性。
    (这部分说明特征选取的重要性,可以减少目标跟踪中变形和遮挡的影响。)

    本文将跟踪问题表述为一个自适应弹性网络回归问题。弹性网络是一种包含 “1范数”和“2范数”正则化 的回归技术。它可以看作是 Lasso回归 和 岭回归 的结合,保留了上述两种回归模型的优点。弹性网络在许多领域都得到了应用,并取得了成功的应用。将跟踪定义为一个弹性网络回归问题可以带来两个好处:
    - 弹性网络保持了回归模型的优点,可以利用背景的更多信息。
    - 弹性网络能够自适应地选择稳定的特征进行训练,从而使表观模型更加精确。
      

    此外,我们提出了一种自适应策略来自动确定“1范数”和“2范数”的权重。实验结果表明,该方法可以获得与许多最先进的跟踪方法相似的跟踪结果。

    2 用弹性网络回归跟踪

    2.1 具有自适应弹性网络回归的表观模型

    2.1.1 简述

    虽然采用了岭回归和支持向量回归等不同的回归策略来构建回归表观模型,但权重向量w的正则项往往采用“2范数”,对特征的鲁棒性不够重视。在此,我们将跟踪定义为一个弹性网络回归问题,弹性网络能够自适应地选择最稳定的特征来学习函数,从而在“1范数”和“2范数”之间进行权衡,因此,我们使用弹性网来选择最鲁棒、最稳定的外观表现特征,减少变形、遮挡等因素对外观变化的影响。

    具体来说,假设训练样本集为x,其对应样本的元素为xi,回归值为yi
    线性回归函数可以定义为f(x)=wTx,其中训练样本xi和回归值yi均以相应的均值为中心。然后将弹性网络正则化回归的优化问题表示为:
            minwi12||wTxiyi||22+λ(α1||w||1+α2||w||22),(1)
            (???是加上了两种正则项的损失函数么???)
    这里的λ表示误差与正则化之间的权衡参数,α1,α2控制“1范数”和“2范数”正则化的比例,并且α1+α2=1

    此外,我们把等式(1)中的α=[α1,α2]T也视为优化参数。由于视频序列的不同帧中对象的稳定特性可能不同,不同视频序列中的对象也可能不同,因此对权衡参数进行自适应调整是有益的。
    之后,等式(1)变为:
            minw,αi12||wTxiyi||22+λ(α1||w||1+α2||w||22)+ρ2||α||22,(2)
    这里的ρ也表示一个权衡参数,又加了一个新的正则化项||α||22,以便控制“1范数”和“2范数”的平衡。通过求解等式(2)中的优化问题,就可以用最优的wα来表示外观模型。

    2.1.2 优化(???)

    由于有两个不同的参数wα,等式(2)的优化问题可以通过两阶段迭代算法进行优化。首先,通过修正α,等式(2)中的优化问题退化为等式(1),等式(1)这是一个标准的弹性网络回归问题。目前已有很多现成的算法来解决在等式(1)中的优化问题。例如 LARS-EN 算法。在此,我们采用 SPAMS 工具箱来解决这个问题。
    第二步,得到w后,我们对其进行了修正并解决α的优化问题:
            minwiλ(α1||w||1+α2||w||22)+ρ2||α||22,(3)
    这是一个二次优化问题,可以用Matlab直接求解。然后这两个步骤可以迭代进行得到最优的wα

    2.1.3 准备样本

    基于滑动窗口策略,在网格中密集采样训练样本。假设目标中心的位置是(x0,y0),目标区域的宽度和高度分别为wh,并且样本的归一化的大小是NS× NS,此外,我们将归一化目标样本的坐标表示为(0,0)。如果将训练样本按照归一化目标的像素密集采样,步长为d,则归一化区域的训练半径为是NS,此外,我们希望训练样本能够覆盖不同程度的目标区域。因此,归一化样本xi在归一化区域中的位置就是(pi,qi),其中pi,qi[Ns,Ns]。相应地,归一化之前,xi的位置为(piw/Ns,qih/Ns)(???为什么???),这可以通过反向映射得到。通过在[Ns,Ns]上改变piqi,我们可以得到所有与目标有不同重叠的训练样本。

    参考:
    1. 滑动窗口算法
    2. 【深度学习理论】基于滑动窗口的目标检测算法

    网格中选取的样本存储在相邻的缓冲区Bn中,提供了紧凑的空间约束。在我们的方法中,Bn中的每个样本对应一个特定的位置。此外,我们还构建了另一个训练样本缓冲区,即深度为D(???)的目标缓冲区Bt,它由之前的跟踪结果填充,提供了时间约束。

    2.1.4 确定回归值

    为了使回归和跟踪的目标一致,在此,我们采用高斯函数作为回归函数,其中最大的回归函数值对应于目标的位置。由于我们将训练样本归一化到固定大小,所以可以通过归一化大小来实现高斯函数,以避免不同目标大小的影响。
            yi=exp((x¯(i)2+y¯(i)2)/σ2),(4)
    x¯(i)y¯(i)分别表示样本xi的归一化相对水平和垂直位置,σ2表示高斯函数的方差。利用训练样本和确定的回归值,通过优化等式(1)中的问题,训练弹性网络回归模型,得到模型参数w

    2.2 搜索策略

    通过建立的表观模型,我们可以逐帧完成跟踪。在此,我们利用一个简单而有效的滑动窗口采样策略来寻找最优的跟踪结果。第t1帧获得的目标位置记为lt1,第t帧的一个候选样本xj的位置记为l(xj),在第t1帧中我们在lt1周围滑动采样窗口,获得一系列候选样本。如果lt1l(xj)满足||l(xj)lt1||2<Rs,xj将被选为候选样本。通过将候选样本归一化为固定大小并提取特征,通过计算得到候选样本xj的回归值f(xj)xj的置信度可以表示为:
            conf(xj)=exp((f(xj)ymax)2).(5)
    然后,通过计算得到最优候选样本:
            xopt=argmaxxjconf(xj).(6)
            (arg代表当conf(xj)取最大值时,x的取值)

    2.3 更新模型

    在得到跟踪结果xopt后,我们更新弹性网络模型以适应外观的变化。为此,我们采用再训练策略(retraining strategy)来更新弹性网络模型。

    由于我们已经将样本分为目标部分Bt和邻近部分Bn,我们分别更新BtBn中的样本。对于Bt,我们以先入先出(First-In-First-Out(FIFO))的原则更新样本,即最早进入目标缓冲区的样本将被xopt替换。对于Bn,由于每个位置对应的样本只有一个,所以我们选择与现有模型最小吻合的样本Nu进行更新。基于xopt的位置,我们首先根据章节2.1.3的介绍选择xopt周围的样本,然后通过回归模型来测量新样本与已有模型的吻合程度。假设新样本集为X,元素为xi
    对应xi的测度是mi=|y^iyi|,这里的y^i为弹性网络模型对xi的预测值,yi为预定义的理想回归值。mi值越大,说明样本xi不适合当前模型。
    因此,我们选择Nu样本比其他样本更大,以Bn代替相邻位置相同的样本。利用更新后的样本,我们可以通过求解等式(1)来重新训练弹性网络模型,在提出的更新方案的基础上,可以对回归模型进行尽可能大的更新,以适应外观的变化。

    Fig.2. 上图是在所有51个序列的测试中,ENT和其他跟踪模型的精确图和成功图。方括号中的值分别表示精度图上Thp=20像素处的精度和成功图上对应的AUC值。

    Table 1. 下表是ENT和其他跟踪模型的CLE (in pixel), VOR,Precison 和 SR 的对比结果:

    3 实验

    3.1 初始化

    提出的基于自适应弹性网络的跟踪方法记为ENT,初始化如下:
    提取具有5像素窗口大小和9个方向的HOG特征来表示;
    样本的归一化大小为30× 30
    训练半径和搜索半径分别设置为30像素和26像素;
    高斯函数中,σ2=0.01
    正则化参数中,α1初始化为0.5,λ初始化为0.5,ρ初始化为10;
    为了更新的比值Nu/M初始化为0.05;
    所有序列的参数都是固定的。(???这句话是什么意思???)

    参考:
    1. HOG特征(Histogram of Gradient)学习总结
    2. 目标检测的图像特征提取之(一)HOG特征
    3. 方向梯度直方图(HOG,Histogram of Gradient)学习笔记二 HOG正篇

    3.2 与最先进的追踪器对比

    3.3 参数分析

    4. 结论

    本文采用弹性网络回归方法构造了一种新的跟踪方法。将跟踪问题表述为弹性网络回归问题,既可以利用回归模型的优点,又可以利用弹性网络选择最稳定的特征进行表示。我们对基准数据集中的跟踪方法进行了评价,实验结果表明,该方法能比其他许多基于回归的跟踪方法取得更好的效果。

    展开全文
  • 弹性云光网络中用于梳理的自适应多级调制
  • 提出了基于模糊逻辑的自适应过滤方案,构建了基于模糊规则的系统。结果表明基于模糊规则的系统通过对报告中背书请求数目的确定来控制过滤方案的安全水平。该方案能够保证能量节约和反虚假数据注入式攻击的足够的弹性...
  • 混合局部递归神经网络用于创建不确定的多变量单输入/多输出系统的比例积分微分(PID)样的神经网络非线性自适应控制器。 它由一个在隐藏层中具有不超过三个神经节点的神经网络组成,并且在一个隐藏层中分别包含一个...
  • PAM4 & NRZ 双SerDes模式 FEC模式支持 Auto-Negotiate& Link Training 自协商...Flex-E弹性网络 Multi-Streams &Billions Flows复杂多流环境模拟 Wired-speed Traffic 线速的流量测试 Latency(...

    400G高速以太网

    PAM4 & NRZ 双SerDes模式

    Tips:虽然现在PAM4很火,火到焱!但是电信级的很多应用还是持续在NRZ的进行拓展,主要是NRZ的稳定性更佳,产业链更成熟,成本现阶段更低。所以要求你的研发平台除了要支持PAM4,很可能还是需要兼顾到NRZ mode.

    FEC模式支持

    Tips:KP4, KR4,瞅瞅802.3CD就头大,但是真的很多场景的应用,实现2 Lane *NRZ <==> PAM4,这部分可以参考Hiwire联盟标准。

    Auto-Negotiate& Link Training 自协商自适应和链路学习

    Tips:AN-LT自协商和链路学习,使用链路学习实现了自协议功能,为什么需要这个功能?

    端口如果支持AN-LT那么在链路不佳或服务迁移的时候端口速率的变更就能自动适应,免去繁琐的配置下发,避免业务中断。

    PFC流量调度模式

    Tips:数据中心业务需求,PFC必测项目

    VxLAN网络虚拟化测试

    Tips:同上

    Flex-E弹性网络

    Tips:弹性以太网支持,在MAC层下面的底层链路的实现,更灵活,电信运营商市场驱动。

    Flex-E + TSN + MACSec,...又是头大的问题

    Multi-Streams & Billions Flows复杂多流环境模拟

    Tips:当然咯,越复杂的流量模拟,就越能仿真现网的流量

    Wired-speed Traffic 线速的流量测试

    Tips:出报告的时候,就看PPS数值,线速跑不掉的

    Latency(CT&SF)多种延迟统计模型支持

    Tips:FIFO,...还有3个什么鬼,...反正都需要测

     

    展开全文
  • 自适应安全架构依托持续性监测与回溯分析形成了集防御、监测、响应、预测为一体的安全防护体系,对于高级定向攻击具备智能与弹性安全防护能力。通过对自适应安全及软件定义安全框架进行研究,结合现有网络安全现状,...
  • 里面有附加动量法反向传播网络训练程序,自适应学习及弹性bp算法等,适用于神经网络控制入门.
  • BP网络

    2019-10-01 19:35:39
    BP网络的训练函数 训练方法 训练函数 梯度下降法 traingd 有动量的梯度下降法 traingdm 自适应lr梯度下降法 traingda 自适应lr动量梯度下降法 ...

     

    BP网络的训练函数   

    训练方法

    训练函数

    梯度下降法

    traingd

    有动量的梯度下降法

    traingdm

    自适应lr梯度下降法

    traingda

    自适应lr动量梯度下降法

    traingdx

    弹性梯度下降法

    trainrp

    Fletcher-Reeves共轭梯度法

    traincgf

    Ploak-Ribiere共轭梯度法

    traincgp

    Powell-Beale共轭梯度法

    traincgb

    量化共轭梯度法

    trainscg

    拟牛顿算法

    trainbfg

    一步正割算法

    trainoss

    Levenberg-Marquardt

    trainlm

     

    BP网络训练参数

    训练参数

    参数介绍

    训练函数

    net.trainParam.epochs

    最大训练次数(缺省为10)

    traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm

    net.trainParam.goal

    训练要求精度(缺省为0)

    traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm

    net.trainParam.lr

    学习率(缺省为0.01)

    traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm

    net.trainParam.max_fail

    最大失败次数(缺省为5)

    traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm

    net.trainParam.min_grad

    最小梯度要求(缺省为1e-10)

    traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm

    net.trainParam.show

    显示训练迭代过程(NaN表示不显示,缺省为25)

    traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm

    net.trainParam.time

    最大训练时间(缺省为inf)

    traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm

    net.trainParam.mc

    动量因子(缺省0.9)

    traingdm、traingdx

    net.trainParam.lr_inc

    学习率lr增长比(缺省为1.05)

    traingda、traingdx

    net.trainParam.lr_dec

    学习率lr下降比(缺省为0.7)

    traingda、traingdx

    net.trainParam.max_perf_inc

    表现函数增加最大比(缺省为1.04)

    traingda、traingdx

    net.trainParam.delt_inc

    权值变化增加量(缺省为1.2)

    trainrp

    net.trainParam.delt_dec

    权值变化减小量(缺省为0.5)

    trainrp

    net.trainParam.delt0

    初始权值变化(缺省为0.07)

    trainrp

    net.trainParam.deltamax

    权值变化最大值(缺省为50.0)

    trainrp

    net.trainParam.searchFcn

    一维线性搜索方法(缺省为srchcha)

    traincgf、traincgp、traincgb、trainbfg、trainoss

    net.trainParam.sigma

    因为二次求导对权值调整的影响参数(缺省值5.0e-5)

    trainscg

    net.trainParam.lambda

    Hessian矩阵不确定性调节参数(缺省为5.0e-7)

    trainscg

    net.trainParam.men_reduc

    控制计算机内存/速度的参量,内存较大设为1,否则设为2(缺省为1)

    trainlm

    net.trainParam.mu

    的初始值(缺省为0.001)

    trainlm

    net.trainParam.mu_dec

    的减小率(缺省为0.1)

    trainlm

    net.trainParam.mu_inc

    的增长率(缺省为10)

    trainlm

    net.trainParam.mu_max

    的最大值(缺省为1e10)

    trainlm

    转载于:https://www.cnblogs.com/zyx2007/archive/2012/09/23/2699336.html

    展开全文
  • BP神经网络参数设置及实例

    万次阅读 2013-11-18 16:07:53
    BP网络的训练函数   训练方法 训练函数 梯度下降法 traingd 有动量的梯度下降法 traingdm 自适应lr梯度下降法 traingda 自适应lr动量梯度下降法 traingdx 弹性梯度下降法 ...
    
    

    BP网络的训练函数

     

    训练方法         训练函数

    梯度下降法     traingd

    有动量的梯度下降法     traingdm

    自适应lr梯度下降法     traingda

    自适应lr动量梯度下降法     traingdx

    弹性梯度下降法     trainrp

    Fletcher-Reeves共轭梯度法 traincgf

    Ploak-Ribiere共轭梯度法       traincgp

    Powell-Beale共轭梯度法       traincgb

    量化共轭梯度法     trainscg

    拟牛顿算法     trainbfg

    一步正割算法         trainoss

    Levenberg-Marquardt     trainlm

     

                                                           BP网络训练参数

     

    训练参数         参数介绍         训练函数

    net.trainParam.epochs   最大训练次数(缺省为10        traingdtraingdmtraingdatraingdxtrainrptraincgftraincgptraincgbtrainscgtrainbfgtrainosstrainlm

    net.trainParam.goal        训练要求精度(缺省为0 traingdtraingdmtraingdatraingdxtrainrptraincgftraincgptraincgbtrainscgtrainbfgtrainosstrainlm

    net.trainParam.lr    学习率(缺省为0.01         traingdtraingdmtraingdatraingdxtrainrptraincgftraincgptraincgbtrainscgtrainbfgtrainosstrainlm

    net.trainParam.max_fail          最大失败次数(缺省为5 traingdtraingdmtraingdatraingdxtrainrptraincgftraincgptraincgbtrainscgtrainbfgtrainosstrainlm

    net.trainParam.min_grad        最小梯度要求(缺省为1e-10  traingdtraingdmtraingdatraingdxtrainrptraincgftraincgptraincgbtrainscgtrainbfgtrainosstrainlm

    net.trainParam.show      显示训练迭代过程(NaN表示不显示,缺省为25        traingdtraingdmtraingdatraingdxtrainrptraincgftraincgptraincgbtrainscgtrainbfgtrainosstrainlm

    net.trainParam.time        最大训练时间(缺省为inf        traingdtraingdmtraingdatraingdxtrainrptraincgftraincgptraincgbtrainscgtrainbfgtrainosstrainlm

    net.trainParam.mc 动量因子(缺省0.9  traingdmtraingdx

    net.trainParam.lr_inc      学习率lr增长比(缺省为1.05         traingdatraingdx

    net.trainParam.lr_dec     学习率lr下降比(缺省为0.7  traingdatraingdx

    net.trainParam.max_perf_inc         表现函数增加最大比(缺省为1.04         traingdatraingdx

    net.trainParam.delt_inc 权值变化增加量(缺省为1.2  trainrp

    net.trainParam.delt_dec         权值变化减小量(缺省为0.5  trainrp

    net.trainParam.delt0       初始权值变化(缺省为0.07     trainrp

    net.trainParam.deltamax        权值变化最大值(缺省为50.0         trainrp

    net.trainParam.searchFcn       一维线性搜索方法(缺省为srchcha        traincgftraincgptraincgbtrainbfgtrainoss

    net.trainParam.sigma     因为二次求导对权值调整的影响参数(缺省值5.0e-5 trainscg

    net.trainParam.lambda  Hessian矩阵不确定性调节参数(缺省为5.0e-7    trainscg

    net.trainParam.men_reduc    控制计算机内存/速度的参量,内存较大设为1,否则设为2(缺省为1  trainlm

    net.trainParam.mu 的初始值(缺省为0.001  trainlm

    net.trainParam.mu_dec 的减小率(缺省为0.1       trainlm

    net.trainParam.mu_inc   的增长率(缺省为10        trainlm

    net.trainParam.mu_max         的最大值(缺省为1e10    trainlm

    1BP网络举例

    举例1

    %traingd

    clear;

    clc;

    P=[-1 -1 2 2 4;0 5 0 5 7];

    T=[-1 -1 1 1 -1];

    %利用minmax函数求输入样本范围

    net =newff(minmax(P),[5,1],{'tansig','purelin'},'trainrp');

     

    net.trainParam.show=50;%

    net.trainParam.lr=0.05;

    net.trainParam.epochs=300;

    net.trainParam.goal=1e-5;

    [net,tr]=train(net,P,T);

     

    net.iw{1,1}%隐层权值

    net.b{1}%隐层阈值

     

    net.lw{2,1}%输出层权值

    net.b{2}%输出层阈值

     

    sim(net,P)

     

    举例2、利用三层BP神经网络来完成非线性函数的逼近任务,其中隐层神经元个数为五个。

    样本数据:

    输入X      输出D     输入X      输出D     输入X      输出D

    -1.0000    -0.9602    -0.3000    0.1336      0.4000      0.3072

    -0.9000    -0.5770    -0.2000    -0.2013    0.5000      0.3960

    -0.8000    -0.0729    -0.1000    -0.4344    0.6000      0.3449

    -0.7000    0.3771      0       -0.5000    0.7000      0.1816

    -0.6000    0.6405      0.1000      -0.3930    0.8000      -0.3120

    -0.5000    0.6600      0.2000      -0.1647    0.9000      -0.2189

    -0.4000    0.4609      0.3000      -0.0988    1.0000      -0.3201

    解:

    看到期望输出的范围是,所以利用双极性Sigmoid函数作为转移函数。

    程序如下:

    clear;

    clc;

    X=-1:0.1:1;

    D=[-0.9602 -0.5770 -0.0729 0.3771 0.64050.6600 0.4609...

       0.1336 -0.2013 -0.4344 -0.5000 -0.3930 -0.1647 -.0988...

       0.3072 0.3960 0.3449 0.1816 -0.312 -0.2189 -0.3201];

    figure;

    plot(X,D,'*'); %绘制原始数据分布图(附录:1-1

    net = newff([-1 1],[51],{'tansig','tansig'});

    net.trainParam.epochs = 100; %训练的最大次数

    net.trainParam.goal = 0.005; %全局最小误差

    net = train(net,X,D);

    O = sim(net,X);

    figure;

    plot(X,D,'*',X,O); %绘制训练后得到的结果和误差曲线(附录:1-21-3

    V = net.iw{1,1}%输入层到中间层权值

    theta1 = net.b{1}%中间层各神经元阈值

    W = net.lw{2,1}%中间层到输出层权值

    theta2 = net.b{2}%输出层各神经元阈值

    所得结果如下:

    输入层到中间层的权值:

    中间层各神经元的阈值:

    中间层到输出层的权值:

    输出层各神经元的阈值:

     

    举例3、利用三层BP神经网络来完成非线性函数的逼近任务,其中隐层神经元个数为五个。

    样本数据:

    输入X      输出D     输入X      输出D     输入X      输出D

    0       0       4       4       8       2

    1       1       5       3       9       3

    2       2       6       2       10     4

    3       3       7       1                

    解:

    看到期望输出的范围超出,所以输出层神经元利用线性函数作为转移函数。

    程序如下:

    clear;

    clc;

    x = [0 1 2 3 4 5 6 7 8 9 10];

    D = [0 1 2 3 4 3 2 1 2 3 4];

    figure;

    plot(x,D,'*'); %绘制原始数据分布图

    net = newff([0 10],[51],{'tansig','purelin'})

    net.trainParam.epochs = 100;

    net.trainParam.goal=0.005;

    net=train(net,x,D);

    O=sim(net,x);

    figure;

    plot(x,D,'*',x,O); %绘制训练后得到的结果和误差曲线(附录:2-22-3

    V = net.iw{1,1}%输入层到中间层权值

    theta1 = net.b{1}%中间层各神经元阈值

    W = net.lw{2,1}%中间层到输出层权值

    theta2 = net.b{2}%输出层各神经元阈值

    所得结果如下:

    输入层到中间层的权值:

    中间层各神经元的阈值: 

    中间层到输出层的权值:

    输出层各神经元的阈值:

     

    问题:以下是上证指数200922日到327日的收盘价格,构建一个三层BP神经网络,利用该组信号的6个过去值预测信号的将来值。

     

    日期         价格         日期         价格

    2009/02/02      2011.682 2009/03/02      2093.452

    2009/02/03      2060.812 2009/03/03      2071.432

    2009/02/04      2107.751 2009/03/04      2198.112

    2009/02/05      2098.021 2009/03/05      2221.082

    2009/02/06      2181.241 2009/03/06      2193.012

    2009/02/09      2224.711 2009/03/09      2118.752

    2009/02/10      2265.161 2009/03/10      2158.572

    2009/02/11      2260.822 2009/03/11      2139.021

    2009/02/12      2248.092 2009/03/12      2133.881

    2009/02/13      2320.792 2009/03/13      2128.851

    2009/02/16      2389.392 2009/03/16      2153.291

    2009/02/17      2319.442 2009/03/17      2218.331

    2009/02/18      2209.862 2009/03/18      2223.731

    2009/02/19      2227.132 2009/03/19      2265.761

    2009/02/20      2261.482 2009/03/20      2281.091

    2009/02/23      2305.782 2009/03/23      2325.481

    2009/02/24      2200.652 2009/03/24      2338.421

    2009/02/25      2206.572 2009/03/25      2291.551

    2009/02/26      2121.252 2009/03/26      2361.701

    2009/02/27      2082.852 2009/03/27      2374.44

     

     

    展开全文
  • 训练方法训练函数梯度下降法traingd有动量的梯度下降法traingdm自适应lr梯度下降法traingda自适应lr动量梯度下降法traingdx弹性梯度下降法trainrpFletcher-Reeves共轭梯度法traincgfPloak-Ribiere共轭梯度法...
  • 第15章自适应共振网络算法分析与应用 15.1ART1网络 15.1.1网络系统结构 15.1.2ATR1网络运行过程 15.1.3ATR1学习算法 15.1.4ART1网络应用 15.2ART2网络 15.2.1网络结构与运行原理 15.2.2网络的数学...
  • 训练神经网络的方法如下所示: (1) traingd:基本梯度下降法,收敛速度比较慢。 (2) traingda:自适应学习率的梯度下降法 (3) traingdm:带有动量项的梯度下降法, 通常要比traingd 速度快。 (4) traingdx: ...
  • 《弹性sketch:一种自适应快速网络测量方案》 sketch:可用于网络测量的数据流算法 ...杨仝等人旨在使用一种通用的概率算法解决复杂网络环境下多种网络测量题目,首次提出弹性网络测量的研究方向...
  • 在采用球填充理论生成八维调制格式的基础上, 提出了一种基于八维调制格式的变速率方法。与当前变速率实现方法相比, 该方法仅通过自适应地切换调制...这种变速率方法可为弹性网络提供精细的谱效率及比特速率的调整。
  • AMD LX700内建图形控制器,支持VGA/TFT/LVDS显示输出,提供1个Mini-IDE连接器,集成AC'97声卡,支持4个USB2.0,4个COM口和2个10/100Mbit/s自适应以太网络接口,提供1个PC104插槽,可以提升外围的扩充弹性
  • AMD LX700内建图形控制器,支持VGA/LCD/LVDS显示输出,提供1个Mini-IDE连接器,集成AC'97声卡,支持4个USB2.0,4个COM口和2个10/100Mbit/s自适应以太网络接口,提供1个PC104 plus插槽,可以提升外围的扩充弹性
  • 提供1个IDE接口,2个SATAⅡ接口,支持8个USB2.0,1个LPT,10个COM口和1个10/100/1000Mbit/s自适应以太网络接口。该款主板还提供了1个标准的PCI和Mini-PCIE插槽,可以提升外围的扩充弹性。该款主板具有强大的逻辑运算...
  • H3C E126-SI以太网交换机(以下简称E126-SI)是针对教育行业构建高弹性、高智能网络需求而设计的新一代以太网交换机产品。E126-SI提供1个Console口、24个10/100Base-TX自适应以太网端口和2个千兆上行端口。
  • 监测和控制小气候温室成为该领域的研究热点之一农业气象学,无线传感器在哪里的应用网络(WSN)最近因其自适应弹性和成本效益的特征。 目前的小气候监测和控制系统实现了通过操纵捕获的环境因素进行预测和传统的...
  • SDN交换机采用虚拟网络设备技术,不仅可以实现扩展数据链路层,而且还能够实现安全、具有弹性自适应的云计算基础网络。那么SDN交换机该如何安装配置。SDN交换机的安装1、为了能够使SDN交换机实现外网的远程接入,...
  • I/O接口方面,支持6个USB2.0,2个COM口和2个10/100/1000Mbit/s自适应以太网络接口。另外,该款主板还提供了1个PCIE-X16和1个MINI PCI插槽,可以提升外围的扩充弹性。该款主板具有强大的逻辑运算技术能力,整合性能...
  • 包括弹性力学平面问题和空间问题、薄板、薄壳、厚板、厚壳、弹性稳定、塑性力学、大位移、断裂、动力反应、徐变、岩土力学、混凝土与钢筋混凝土、流体力学、热传导、工程反分析、仿真计算、网络自动生成、误差估计及...
  • 2021-02-25

    2021-02-24 20:30:16
    namp网络扫描 跨越问题 网关与路由 js正则表达式 dom bom js事件 js上下文互换 js原生链 @媒体查询 弹性布局 移动端布局 自适应布局 响应式布局 找工作与简历书写 maven git 垃圾回收机制 JVM与JVM调优 ajax restful...
  • 在对容器云资源预测问题研究现状进行调查后,提出一种采用自适应概率的多选择策略遗传算法(APMSSGA)优化长短期记忆网络(LSTM)的容器云资源预测模型。实验结果表明,与简单遗传算法(SGA)相比,APMSSGA在LSTM...
  • 采集新疆渭干河-库车河典型绿洲96个表层土样,测量其光谱反射率和土壤有机碳(SOC)含量,采用分数阶微分技术(阶数的取值范围为0~2,步长为0.2)结合极限学习机、随机森林、多元自适应回归样条函数、弹性网络回归和梯度...
  • 越来越多的流程和数据密集型应用程序将被用于云环境中。云的概念正在发生改变,被定位成所有类型的IT需求...这些提供了自适应的、随开即用的和优化的基础架构(服务器、存储器和网络元素)。为了在具有弹性的云中优雅地
  • RdViewer.zip

    2021-02-18 09:15:19
    3、弹性云服务器集群,自适应调度算法,保证上线24小时稳定可用,服务器云采用调度服务器、控制服务器、数据服务器模式,根据算法调度选择合适的节点上线,可根据用户负载量动态扩充云,理论支持千万以上用户同

空空如也

空空如也

1 2
收藏数 40
精华内容 16
关键字:

自适应弹性网络