精华内容
下载资源
问答
  • 径向基函数神经网络模型计算程序源码,供参考
  • 基于多尺度径向基函数的时变模型参数辨识,刘青,李阳,研究一种新的时变模型参数辨识方法,提出把多尺度径向基函数(Multi-scale Radial Basis Function, MRBF)作为时变模型中时变参数的基函数展开
  • 提出了一种基于径向基函数神经网络的网络流量识别方法。根据实际网络中的流量数据,建立了一个基于RBF神经网络的流量识别模型。先介绍了RBF神经网络的结构设计及学习算法,针对RBF神经网络在隐节点过多的情况下算法...
  • DRBF法回顾在上一篇基于动态径向基函数(DRBF)代理模型的优化策略中我们简要介绍了DRBF算法,这种算法收敛次数少,但由于收敛区间只缩小不扩张,该算法有着天然的劣势,如果在几次迭代当中并未搜索到最优解附近的...
    • DRBF法回顾
    • TR-DRBF简介
    • 拉丁超方设计
    • 信頼域思想
    • 算例

    DRBF法回顾

    在上一篇基于动态径向基函数(DRBF)代理模型的优化策略中我们简要介绍了DRBF算法,这种算法收敛次数少,但由于收敛区间只缩小不扩张,该算法有着天然的劣势,如果在几次迭代当中并未搜索到最优解附近的区间,则更新新样本点的区间将缩减到足够小,以致矩阵奇异,从而算法失效。

    也是由于这个原因,笔者并未对该算法进行详细展开。


    TR-DRBF简介

    在本篇文章中,将介绍一种新的算法,TR-DRBF(Trust region based dynamic radial basis function)算法。该方法同样用于模型优化,目的是找到某个函数的最小值,算法的大致描述如下:给定特定函数搜索区间,首先在整个区间内采一些点,采点方法见拉丁超方设计

    采完第一组点后,利用径向基函数插值出一个代理模型,然后利用全局优化算法(如遗传算法等,笔者用的即为遗传算法)优化该代理模型,得到一个近似最优解,由于当前采集的特征点较少,代理模型并不能很好的代表原函数,接下来就需要运用基于信赖域采样空间更新策略更新采样空间,得到一组新的样本点,与之前的样本点一起保存进样本点数据库中,然后用这些样本点一起构造新的代理模型,直至相邻两次代理模型求得的全局最优解带入真实模型中,满足收敛条件即可跳出循环。

    流程图如下

    Created with Raphaël 2.1.0初始条件 (设计变量 分析模型 设计空间)选取初始(新增)样本点并求其对应的真实模型响应值构造径向基函数代理模型遗传算法求解当前代理模型的可能最优解计算当前可能最优解在真实模型出的响应值满足收敛准测结束信赖域采样更新yesno

    拉丁超方设计

    拉丁超方设计是保证空间均布性与投影均匀性的计算实验设计方案。其实现用matlab自带的lhsdesign函数即可


    信頼域思想

    信赖域采样空间更新策略的主要目的是使基于当前代理模型的子优化能够实现目标函数值的显著下降。

    信赖域采样空间更新策略就是根据当前已知信息,并结合信赖域思想,进行采样空间更新,确定更新后的采样空间的边界。需用参数取值为c1=0.75,c2=1.25,r1=0.1,r2=0.75,信赖域半径上限Δ 取为初始设计空间的半径R,本文中lambda=0.05。

    信赖域采样空间更新策略可以总结如下。

    第 1 步,确定新采样空间的中心点xc。若真实目标函数值下降,则
    当前可能最优解 xk 作为更新后采样空间的中心点x_c,反之,则将上一次的可能最优解 xk -1作为更新后采样空间的中心点 x_c。

    % matlab code
    if(Y_star_k_1 > Y_star_k)
        X_c = X_star_k;
    else
        X_c = X_star_k_1;
    end

    第 2 步,更新信赖域半径delta_k。将信赖域思想引入采样空间更新策略中,根据已知信息,求解获得信赖因子r 。根据r 的大小,按照对信赖域半径进行适当缩放。

    r = GetTRFactor(Y_star_k_1,Y_star_k,Y_star_predict_k);
    delta_k = UpdateDelta(r,X_star_k,X_star_k_1,c1,c2,r1,r2,Delta);
    function [ output_args ] = GetTRFactor( Y_star_k_1,Y_star_k,Y_star_predict_k )
    output_args = (Y_star_k_1 - Y_star_k)/(Y_star_k_1 - Y_star_predict_k);%该过程衡量最优解值的改善情况
    
    end
    function [ output_args ] = UpdateDelta(r,X_star_k,X_star_k_1,c1,c2,r1,r2,Delta)
    if r < r1
        output_args = c1*abs(X_star_k - X_star_k_1);
    elseif r > r2
            output_args = min(c2*abs(X_star_k - X_star_k_1),Delta);
    else
        output_args = abs(X_star_k - X_star_k_1);
    end
    end

    第3 步,信赖域采样空间边界控制。多次迭代之后可能会出现所求信赖域半径delta_k太小,导致新增样本点过于集中在一个狭小空间中,对于提高RBF 代理模型的近似精度没有明显帮助,同时为使优化策略更容易跳出局部最优解,给定最小信赖域半径,可以根据实际问题来确定。此外,获得的信赖域采样空间可能超出初始设计空间,则选取二者交集作为信赖域采样空间边界。则整个基于信赖域思想的采样更新策略如下。

    function [ output_args ] = shrinkspace(Y_star_k_1,Y_star_k,Y_star_predict_k,X_star_k,X_star_k_1,lb,ub,lbc,ubc,Delta,c1,c2,r1,r2,lambda)
    if(Y_star_k_1 > Y_star_k)
        X_c = X_star_k;
    else
        X_c = X_star_k_1;
    end
    r = GetTRFactor(Y_star_k_1,Y_star_k,Y_star_predict_k);
    delta_k = UpdateDelta(r,X_star_k,X_star_k_1,c1,c2,r1,r2,Delta);
    delta_k = max(delta_k,lambda*Delta);
    lbc = X_c - delta_k;
    ubc = X_c + delta_k;
    lbc = max(lbc,lb);
    ubc = min(ubc,ub);
    output_args = [lbc;ubc];
    end

    算例

    SC_Function

    比如我们期望对SC 函数进行优化,该函数是常见的一种优化测试函数,其函数图像如下图

    SC-Function
    首先,在[-2 -2;2 2]内由拉丁超方方法采集6个点,构造代理模型及所采的6个点如下图
    这里写图片描述
    可以看到,代理模型过每一个采样点,所以说径向基函数为差值型。采用ga算法进行优化求解,得到第一个最优解为[0.9377 -0.4421]处,最优值是1.0767,此时代理模型与原函数相去甚远,所以我们还要进一步更新该代理模型。
    选取六个点中的最小值[-0.6615 -0.0811]为中心点更新采样空间,由更新策略得新的采样空间为[-0.6615 -0.8031; 2 -0.0811],然后再在该更新后的空间中重新采6个点,与原来的6个点一起保存到样本库中,进入第二轮循环。

    在第二轮循环中,由这12个点构建新的代理模型,得下图
    这里写图片描述
    可以看到,曲面中部的近似于原函数的精度已明显有所提高,动态更新策略仅对兴趣区域采集新的点,所以曲面靠近边界处的精度并未提高,我们也并不关心,因为从代理模型来看,函数的全局最优解仅有可能出现在该次循环所计算的更新后的采样区间当中。

    如此进行数次迭代,在第8次循环后,满足收敛条件,循环结束,最后一次构造的代理模型如图
    这里写图片描述

    最终找到的全局最优解为-1.0314,与SC_Function的真实最优解-1.0316相差很小。并且这只代表该次的结果,在笔者多次的实验中,大部分时候可以精确找到真实全局最优解,少数情况会过早结束循环,所得结果略大于真实解。要解决这一问题,可以适当调整收敛判据,使之更严格。
    该算例最终结果如下

    Test Function Theoretical Optimum Intermediate Optimum Function Calls
    SC -1.0316 -1.0314 48

    GN_Function

    f(x)=i=1nvx2i/200i=1nvcos(xi/i)+1

    x1,x2[100,100] nv=2
    Test Function Theoretical Optimum Intermediate Optimum Function Calls
    GN 0 0.0002 204
    展开全文
  • 1985年,Powell提出了多变量插值的径向基函数(RBF)方法。1988年Moody和Darken提出了一种神经网络结构,即RBF神经网络,属于前向神经网络类型,它能够以任意精度逼近任意连续函数,特别适合于解决分类问题。RBF网络...

    1985年,Powell提出了多变量插值的径向基函数(RBF)方法。1988年Moody和Darken提出了一种神经网络结构,即RBF神经网络,属于前向神经网络类型,它能够以任意精度逼近任意连续函数,特别适合于解决分类问题。

    RBF网络的结构与多层前向网络类似,它是一种三层前向网络。输入层由信号源结点组成,第二层为隐含层,隐单元数视所描述问题的需要而定,隐单元的变换函数是RBF,它是对中心点径向对称且衰减的非负非线性函数,第三层为输出层,它对输入模式的作用作出相应。从输入空间到隐含层空间的变换是非线性的,而从隐含层空间到输出层空间变换是线性的。

    RBF网络的基本思想是:用RBF作为隐单元的“基”构成隐含层空间,这样就可以将输入矢量直接映射到隐空间,而不需要通过权连接。当RBF的中心点确定以后,这种映射关系也就确定了。而隐含层空间到输出空间的映射是线性的,即网络的输出是隐单元输出的线性加权和,此处的权即为网络可调参数。从总体上看,网络由输入到输出的映射是非线性的,而网络输出对可调参数而言却又是线性的。这样,网络由输入到输出的映射是非线性的,而网络输出对可调参数而言却又是线性的。这样网络的权就可由线性方程组直接解出,从而大大加快学习速度并避免局部极小问题。

    RBF神经网络模型

    径向基神经网络的激活函数采用径向基函数,通常定义为空间任一点到某一中心之间欧氏距离的单调函数。径向基神经网络的激活函数是以输入向量和权值向量之间的距离dist 为自变量的。径向神经网络的激活函数一般表达式为

    R(dist)=edist2

    随着权值和输入向量之间距离的减少,网络输出是递增的,当输入向量和权值向量一致时,神经元输出1。b为阈值,用于调整神经元的灵敏度。利用径向基神经元和线性神经元可以建立广义回归神经网络,该种神经网络适用于函数逼近方面的应用;径向基神经元和竞争神经元可以组件概率神经网络,此种神经网络适用于解决分类问题。输出层和隐含层所完成的任务是不同的,因而它们的学习策略也不相同。输出层是对线性权进行调整,采用的是线性优化策略,因而学习速度较快。而隐函数是对激活函数(格林函数或高斯函数,一般为高斯函数)的参数进行调整,采用的是非线性优化策略,因而学习速度较慢。

    尽管RBF网络的输出是隐单元输出的线性加权和,学习速度加快,但并不等于径向基神经网络就可以取代其他前馈网络。这是因为径向神经网络很可能需要比BP网络多得多的隐含层神经元来完成工作。

    RBF网络学习算法

    RBF神经网络学习算法需要求解的参数有3个:基函数的中心、方差以及隐含层到输出层的权值。根据径向基函数中心选取方法的不同,RBF网络有多种学习方法。下面介绍自组织选取中心的RBF神经网络学习法。此方法由两个阶段组成:
    1. 自组织学习阶段,此阶段为无监督学习过程,求解隐含层基函数的中心与方差;
    2. 监督学习阶段,此阶段求解隐含层到输出层之间的权值。

    径向基神经网络中常用的径向基函数是高斯函数,因此径向基神经网络的激活函数可表示为:

    R(xpci)=exp(12σ2xpci2)

    由此可得,径向基神经网络的结构可得到网络的输出为:

    yj=i=1hwijexp(12σ2xpci2) j=1,2,,n

    其中xp 为第p个输入样本。h为隐含层的结点数。

    如果d是样本的期望输出值,那么基函数的方差可表示为:

    σ=1Pjmdjyjci2

    基于K-均值聚类方法求取基函数中心c

    1. 网络初始化 随机选取h个训练样本作为聚类中心ci
    2. 将输入的训练样本集合按最近邻规则分组,按照xp 与中心为 ci 之间的欧式距离将xp 分配到输入样本的各个聚类集合 ϑp 之中。
    3. 重新调整聚类中心 计算各个聚类集合 ϑp 中训练样本的平均值,即新的聚类中心 ci, 如果新的聚类中心不再发生变化,所得到的 ci 就是RBF神经网络最终的基函数中心,否则返回2进行下一轮求解

    求解方差σi

    该RBF神经网络的基函数为高斯函数,因此方差 σi 可由下式求解得出:

    σi=cmax2h   i=1,2,,h

    其中 cmax 是所选取中心之间的最大距离

    计算隐含层和输出层之间的权值

    用最小二乘法直接计算得到:

    w=exp(hc2maxxpci2)     p=1,2,,P;i=1,2,,h
    展开全文
  • 电子散斑干涉技术(ESPI)测量物体变形时,初始载荷下采集的散斑图像呈现出粗宽分布,提出了一种基于径向基函数的粗宽条纹图滤波方法。介绍了基于径向基函数平滑插值的滤波原理,分析了该滤波方法的参数选取问题。通过...
  • 关于径向基函数神经网络,首先要介绍一个定理,cover定理,对于一个复杂的在低维空间表现为非线性可分的模型分类问题,当我们从该低维空间由某种非线性变换而得到的高维空间来看待时,原来的问题就可能转化为一个...

    径向基函数神经网络是不同于BP神经网络的另一种的前馈神经网络,由输入层、一层非线性隐层(径向基层)和线性输出层组成的。

    关于径向基函数神经网络,首先要介绍一个定理,cover定理,对于一个复杂的在低维空间表现为非线性可分的模型分类问题,当我们从该低维空间由某种非线性变换而得到的高维空间来看待时,原来的问题就可能转化为一个简单的线性可分的模式分类问题。再看回径向基函数神经网络的结构,它只有一层隐层,而且隐层的神经元数量是多于输入层的,所以就可以看成经过隐层的处理后,原来的输入特征由n维变成了更高的n+k维。这就是径向基函数神经网络的核心思想。

    接下来我们首先从BP神经网络和径向基函数神经网络的区别入手,分析径向基神经网络的一些优点。

    首先,BP神经网络的隐节点(隐层神经元)采用输入变量与权向量的内积作为激活函数的自变量,激活函数采用sigmoid函数,我们知道,在训练过程中,BP算法会根据样本数据不断反向调整参数(权向量),使得最后得到的模型能够尽可能拟合所有数据(或者说模型损失函数尽可能小),也就是说,所有数据对于模型参数的调整都有同等重要的地位,这种现象就称为全局逼近。

    而RBF神经网络则是采用输入变量与基函数中心的距离(如欧氏距离)作为激活函数的自变量,同时激活函数采用径向基函数,采用输入变量与中心的距离作为激活函数的自变量和核回归的思想是相似的,也就是说,远离各个中心的数据,对于模型参数调整的影响是较小的,真正起主要作用的是靠近中心变量的样本数据,所以这就属于局部逼近。

    针对BP神经网络和RBF神经网络的区别,就可以推导出,RBF神经网络比起BP神经网络的优点主要在于计算速度,因为RBF只有一层隐层,BP可能有多层隐层,同时BP是全局逼近而RBF是局部逼近,这些都会影响计算速度。

    明确了RBF神经网络的优点后,再来具体介绍RBF神经网络的过程。BP神经网络要求解的只有权向量,而RBF神经网络需要求解的参数有基函数的中心、方差以及隐层到输出层的权值。首先关于中心,其实和样条回归的节点、loess的拟合点是一个东西,通过一组中心将原来的样本数据集划分到不同区间,再局部进行拟合,所以中心变量的数量和位置对于最后拟合得到的函数的精度和形状影响很大。所以REF神经网络可以分为两个过程,第一个是确定基函数的中心和方差,然后才是确定权值。

    关于基函数的中心选取方法有很多,第一种是直接计算法,其实就是随机选取中心;第二种是自组织学习选取中心,主要采用K-均值聚类法来选择中心;第三种是通过梯度下降法这类有监督学习方法来选取中心,除此之外还有很多不同的方法,但目前为止也没有通用的较好的策略去决定中心,或多或少会存在计算量大、收敛速度较慢等问题,所以目前针对这些问题,也有提出了一种更复杂的基于合作性协同进化的RBF学习算法,去分析出最优的隐层神经元数量以及基函数中心、方差。

    确定了基函数的中心和方差之后,我们就能进一步得到模型的输出表达式(以高斯函数作为径向基函数为例):

    R(xpxi)=exp(12δ2xpxi2)R(x_p - x_i) = exp(\frac{1}{-2\delta ^2} ||x_p - x_i ||^2)

    yi=i=1hωijexp(12δ2xpxi2)y_i = \sum_{i=1}^h \omega_{ij} exp(\frac{1}{-2\delta ^2} ||x_p - x_i ||^2)

    最后,根据实际的情况(回归还是分类问题),选择适当的损失函数,按照常规的方法去求解最优权值。

    总的来说,RBF神经网络可以看成是一种基于局部逼近思想而改进的神经网络,理论上和BP神经网络相比计算效率更高,可是另一方面,我认为BP神经网络的各个步骤是十分明确的,可以一步步推导的,而RBF神经网络在确定径向基函数相关参数时,根据不同的样本数据分布或许会有更好的计算方法,很难确定一种通用的最优的求解方法,这种不确定性就变成了RBF神经网络的一大局限。

    想浏览更多关于数学、机器学习、深度学习的内容,可浏览本人博客

    展开全文
  • 针对径向基代理模型技术在近似高维问题时预测性能较差的不足,提出一种基于融合核函数的改进径向基代理模型技术。在拉丁超立方设计抽样不均匀的情况下,通过定义一种辅助函数与距离评判标准,提出基于均匀抽样的拉丁...
  • 径向基函数

    2014-11-14 16:16:00
    详尽的描述了RBF模型。对于初学者而言这是一个捷径。
  • 基于动态径向基函数(DRBF)代理模型的优化策略在工程计算中,我们经常遇到需要求解优化问题,尤其在现在十分有前景的机器学习领域,如何快速、高效的求解优化问题,成为机器学习算法是否高效、准确的必要条件。...

    基于动态径向基函数(DRBF)代理模型的优化策略

    在工程计算中,我们经常遇到需要求解优化问题,尤其在现在十分有前景的机器学习领域,如何快速、高效的求解优化问题,成为机器学习算法是否高效、准确的必要条件。

    运用代理模型求解优化问题是优化领域的一个重要思想,该思想是将一个复杂的函数通过采集特征点构造一个相对简单的新的函数,我们称之为代理模型(通常分为插值型与拟合型),再对代理模型进行优化求得最优解。由于该代理的模型只能一定程度上代表真实模型,它到最优解并不能直接代表原目标函数的最优解,所以需要对代理模型进行更新,通常是以一定的判据来重新采点,重新构造代理模型,直到满足收敛条件,便停止对代理模型的更新,所得的最优解即视为原函数的最优解。

    本文对采点、代理模型以及代理模型更新策略仅做了简要的介绍,详细内容参见基于计算试验设计与代理模型的飞行器近似优化策略探讨

    在众多代理模型中,笔者首先尝试复现的是一种相对简单的代理模型——径向基函数,题中动态一词体现在更新代理模型时,新的采样区间是不断变化的,具体的做法是,以本次求解的最优点为中心,将上一次最优解区间的尺寸同比例缩小为原来的1/ns,在这样的新矩形内重新采集样本点,再以此样本点与原样本点一起构造新的代理模型。

    具体的做法参见基于动态径向基函数代理模型的优化策略,在该篇论文中,更新采样区间时所选的中心点为上一次的最优解处,但这样的话存在第一次循环无法调用第零次(因为没有初始化)的问题,在此提供两种思路,一种是进行初始化,如采取初始寻优区间的中心为初始最优解位置;另一种是改为以当前循环的最优解为中心构造采样区间。笔者选择了第二种方法,因为初始最优解的选取在没有先验知识的情况下随意选取似乎有失严谨。同时,龙腾老师也建议笔者采用后一种方法。感谢龙腾老师与李学长、屁屁给予笔者复现时的帮助。

    程序是以SC函数(Six-hump camelback function)为目标函数进行代理模型求解的。在运行时有时会遇到矩阵奇异不能计算、并未收敛到最优解便结束循环的情况。出现该情况,一是该算法本身具有缺陷,采样区间仅缩小不扩大会导致4-5次循环后区间缩至很小,这样在构造径向基函数代理模型时要进行矩阵求逆运算时便会遇到矩阵奇异,从而不能求得最优解。这种情况,在当前算法下若想优化,应该适当减小每次迭代中区间的压缩量(即减小论文中的ns值),而对于未寻找到最优解便跳出循环,则是因为收敛条件还不够严格,课修改代码中Is_convergence函数的epsilon值。

    下面是matlab代码实现,该SC函数的最优解值应该为-1.0316。

    main函数

    %% clear data
    clc;
    clear;
    %% initial settings
    ga_opts = gaoptimset('Display','off','PopulationSize',30);
    nv = 2;
    ns = (nv + 1)*(nv + 2)/2;
    ns = 5;
    lb = [-2 -2];
    ub = [2 2];
    lbc = lb;
    ubc = ub;
    c = 4;
    count = 0;
    bound = ones(2,2);
    %% run the first time
    X = chooseX(lb,ub,ns,nv);
    Y = SC_function(X);
    %% forloop
    for k = 1:9991
        newfunction = @(x)(invA(X,c)*Y)'*phy2(x,X,c);%construct newfunction
        [xval,fval,exitflag,output]=ga(newfunction,nv,[],[],[],[],lb,ub,[],ga_opts);
        count = count + output.funccount;
        Y_star(k) = SC_function(xval);
        X_star(k,:) = xval;
        if k == 1
            newbound = shrinkspace(X_star(k,:),lbc,ubc,ns);
            lbc = newbound(1,:);
            ubc = newbound(2,:);
            bound = newbound;
            newX = chooseX(newbound(1,:),newbound(2,:),ns,nv);
            X = [X;newX];
            Y = [Y;SC_function(newX)];
            continue;
        end
        if Is_convergence(Y_star(k),Y_star(k-1)) == 1;
            break;
        end
        newbound = shrinkspace(X_star(k,:),lbc,ubc,ns);
        lbc = newbound(1,:);
        ubc = newbound(2,:);
        bound = [bound;newbound];
        newX = chooseX(newbound(1,:),newbound(2,:),ns,nv);
        X = [X;newX];
        Y = [Y;SC_function(newX)];
    end 

    chooseX

    function [ S ] = chooseX( LB,UB,N,D )
    
    S = lhsdesign(N,D,'criterion','maximin');
    S = S.*repmat(UB - LB,N,1) + repmat(LB,N,1);
    end

    invA

    function [ output_args ] = invA(x,c)
    
    n = length(x);
    A = ones(n,n);
    for i = 1:n
        for j = 1:n
            A(i,j) = phy(x(i,:)',x(j,:)',c);
        end
    end
    output_args = inv(A);
    end
    

    Is_convergence

    function [ output_args ] = Is_convergence( rk,rk_1 )
    
    epsilon = 0.01;
    if (abs((rk - rk_1)/rk_1)) <= epsilon
        output_args = 1;
    else
        output_args = 0;
    end
    end
    

    phy

    function [ output_args ] = phy( x1,x2,c )
    
    output_args = ((x1 - x2)'*(x1 - x2)+c^2)^(-0.5);
    end

    phy2

    function [ output_args ] = phy2( x,X,c)
    
    n = length(X);
    for i = 1:n
        output_args(i) = phy(x',X(i,:)',c); 
    end
    output_args = output_args';
    end
    

    SC_function

    function [ output_args ] = SC_function( X )
    
    output_args = 4*X(:,1).^2 - 2.1 * X(:,1).^4 + 1/3*X(:,1).^6 + ...
        X(:,1).*X(:,2) - 4*X(:,2).^2 + 4*X(:,2).^4;
    
    end

    shrinkspace

    function [ output_args ] = shrinkspace(x_k,lb_k_1,ub_k_1,ns)
    
    l_k_1 = ub_k_1 - lb_k_1;
    lbc = x_k - 1/ns*(l_k_1);
    ubc = x_k + 1/ns*(l_k_1);
    lbc = max(lbc,[-2 -2]);
    ubc = min(ubc,[2 2]);
    a = ubc - lbc;
    temp = 0.09;
    if a(1)<4*temp
        ubc(1) = x_k(1) + 2*temp;
        lbc(1) = x_k(1) - 2*temp;
    end
    if a(2)<4*temp
        ubc(2) = x_k(2) + 2*temp;
        lbc(2) = x_k(2) - 2*temp;
    end
    output_args = [lbc;ubc];
    end

    欢迎大家批评指正。

    展开全文
  • 基于归一化的径向基函数神经网络,采用非参数统计方法,建立了激光焊接熔池在时间和空间上的光强分布模型。该神经网络采用高斯函数作为径向基函数。提出了定量评价该模型预测光强分布质量的方法,并根据该评价方法,对...
  • p1985年,Powell提出了多变量插值的径向基函数(Radical Basis Function,RBF)方法 p1988年, Moody和Darken提出了一种神经网络结构,即RBF神经网络 pRBF网络是一种三层前向网络 pRBF网络的基本思想 详细信息参阅...
  • 为了简化布里渊散射提取温度的步骤并提高提取精度,提出利用径向基函数神经网络直接通过布里渊散射谱获取温度特征的一种新方案;将各温度布里渊散射谱作为训练集计算出温度模型,将待测布里渊散射谱直接输入至模型...
  • 建立了径向基函数混沌神经网络模型以及径向基函数混沌神经元模型,分析其产生混沌后收敛的原因,通过撤销模拟退火策略使过程无法收敛,从而构建出永久保持混沌状态的混沌神经元动力系统,分析了该系统的时间序列指标...
  • 附件是径向基函数预测的代码,用Python编写,模型里添加了二次完全多项式程序,在采用二百个六维度的样本点训练预测时,误差在10%左右。
  • 针对产品销售时序具有多维度,非线性的特征,通过设计了一种扩展的RBF核函数,将其应用于支持向量机中,得到一种扩展的RBF核支持向量机(ERBF-SVM: Expanded Radial Basis Function - Support Vector Machine);...
  • 为了克服以上方法的不足,结合泥石流危险性评价指标,建立了基于径向基函数神经网络的泥石流危险性评价模型,并将该模型结果与BP神经网络的评价结果进行了对比。实验结果表明,径向基函数神经网络的模拟结果比BP神经...
  • RBF径向基函数网格变形算法源程序

    热门讨论 2011-06-08 16:04:03
    RBF径向基函数网格变形算法源程序,用于人脸等三维模型的网格变形
  • 针对某矿山数据进行了不同边界品位的矿体自动建模实验,与显式方法建模结果对比表明,基于径向基函数隐式曲面的矿体建模方法自动化程度高、模型光滑且无拓扑错误,可为国内数字矿山与地学三维软件的研发提供新方案。
  • 根据光纤中布里渊散射谱的传输特点和高精度特征提取的要求,提出了利用莱文伯马夸特(L-M)算法调节权值的径向基函数神经网络(RBFN)对布里渊散射谱进行特征提取。通过与反向传播(BP)神经网络、五次多项式曲线拟合法...
  • 径向基函数用于复杂路形3维重构时的算法改进,彭其渊,徐进,在道路地形采样数据稀疏的情况下,为获得高精度的道路数字模型,须使用插值逼近的方法来重构道路几何形状。以Multi-Quadric(MQ)为代表�
  • 最后,将经过主成分降维的光谱数据作为径向基函数神经网络的输入量,对铝合金中5种主要非铝元素(Si、Fe、Cu、Mn和Mg)建立多元定标模型。结果表明:该模型的拟合优度均值为0.978,均方根误差均值为0.31%;主成分分析结合...
  • 为了提高矿井火灾探测器对环境的适应力和抗干扰能力,采用逼近能力、分类能力和学习速度等方面优于BP网络的径向基函数神经网络,在MATLAB环境下构建火灾探测仿真模型,以温度、烟雾浓度、CO气体浓度作为输入,进行多信息...
  • 径向基函数神经网络的基本原理和特点石显:土石坝参数反演的蚁群聚类RBF网络模型——RBF网的学习算法​zhuanlan.zhihu.com1 RBF网络的结构和工作原理与多层感知器(BP网络)不同,RBF网的最显著特点是隐节点的基函数...

空空如也

空空如也

1 2 3 4 5 ... 15
收藏数 292
精华内容 116
关键字:

径向基函数模型