精华内容
下载资源
问答
  • 采用径向基神经网络搭建地下水预测模型,进行地下水预测。
  • 径向基神经网络,径向基神经网络原理,matlab源码
  • 径向基网络

    2015-08-16 10:23:48
    使用径向基网络对蝴蝶花分类学习很好的实例
  • 在这篇论文中,我们提出了一个使用局部支撑径向基函数对三维散乱点进行Hermite插值或逼近的快速曲面重构方法.通过构造给定数据点集的一个层次结构,采用逐层精化的方式实现了全局曲面重构的效果,解决了因使用局部支撑...
  • Matlab粒子群算法遗传算法优化RBF径向基神经网络-粒子群算法、遗传算法优化RBF径向基神经网络.rar 粒子群算法、遗传算法优化RBF径向基神经网络
  • 径向基函数是一个取值仅仅依赖于离原点距离的实值函数,也就是Φ(x)=Φ(‖x‖),或者还可以是到任意一点c的距离,c点称为中心点,也就是Φ(x,c)=Φ(‖x-c‖)。任意一个满足Φ(x)=Φ(‖x‖)特性的函数Φ都叫做...
  • 径向基神经网络.rar

    2020-01-03 08:22:22
    本项目主要实现了python端的径向基,通过实现算法本身而不是调用库实现,实现了径向基神经网络对双月数据进行分类,另外里面还进行了包括调整中心个数,学习率的调整方法等对原始程序进行了改进,可以用来进行不同...
  • 径向逻辑的径向基函数神经网络的硬件实现
  • 径向基函数用于函数逼近和插值。 这个包支持两种流行的 rbf 类:高斯样条和多谐样条(薄板样条是其中的一个子类)。 该包还计算两点之间的线积分以及表面的梯度。 有关更多信息,请参阅 blog.nutaksas.com 以获取...
  • 径向基函数

    千次阅读 2019-06-15 12:11:45
    注意核函数是一回事,径向基函数是另一回事。核函数表示的是高维空间里由于向量内积而计算出来的一个函数表达式(后面将见到)。而径向基函数是一类函数,径向基函数是一个它的值(y)只依赖于变量(x)距原点距离的函数,...

    注意核函数是一回事,径向基函数是另一回事。核函数表示的是高维空间里由于向量内积而计算出来的一个函数表达式(后面将见到)。而径向基函数是一类函数,径向基函数是一个它的值(y)只依赖于变量(x)距原点距离的函数,即\phi(\mathbf{x}) = \phi(\|\mathbf{x}\|) ;也可以是距其他某个中心点的距离,即 \phi(\mathbf{x}, \mathbf{c}) = \phi(\|\mathbf{x}-\mathbf{c}\|).  引用自wiki . 也就是说,可以选定径向基函数来当核函数,譬如SVM里一般都用高斯径向基作为核函数,但是核函数不一定要选择径向基这一类函数。如果感觉这段话有点绕没关系,往下看就能慢慢体会了。

    为什么要将核函数和RBF神经网络放在一起,是希望学习它们的时候即能看到它们的联系又能找到其差别。
     

    展开全文
  • 人工神经网络——径向基函数(RBF)神经网络

    万次阅读 多人点赞 2015-10-24 15:32:45
    径向基函数神经网络的优点:逼近能力,分类能力和学习速度等方面都优于BP神经网络,结构简单、训练简洁、学习收敛速度快、能够逼近任意非线性函数,克服局部极小值问题。原因在于其参数初始化具有一定的方法,并非...

    此博客排版不好,重新用Markdown写了一篇,同时附上了代码,戳这里

       本文摘自:《模式识别与智能计算——matlab技术实现第三版》与《matlab神经网络43个案例分析》

    【注】蓝色字体为自己的理解部分

         径向基函数神经网络的优点:逼近能力,分类能力和学习速度等方面都优于BP神经网络,结构简单、训练简洁、学习收敛速度快、能够逼近任意非线性函数,克服局部极小值问题。原因在于其参数初始化具有一定的方法,并非随机初始化。

            RBF是具有单隐层的三层前向网络。第一层为输入层,由信号源节点组成。第二层为隐藏层,隐藏层节点数视所描述问题的需要而定,隐藏层中神经元的变换函数即径向基函数是对中心点径向对称且衰减的非负线性函数,该函数是局部响应函数,具体的局部响应体现在其可见层到隐藏层的变换跟其它的网络不同。以前的前向网络变换函数都是全局响应的函数。第三层为输出层,是对输入模式做出的响应。输入层仅仅起到传输信号作用,输入层和隐含层之间可以看做连接权值为1的连接,输出层与隐含层所完成的任务是不同的,因而他们的学习策略也不同。输出层是对线性权进行调整,采用的是线性优化策略,因而学习速度较快;而隐含层是对激活函数(格林函数,高斯函数,一般取后者)的参数进行调整,采用的是非线性优化策略,因而学习速度较慢。对于这句话的理解,从下面的层与层之间的变换可以发现。

           RBF神经网络的基本思想:用RBF作为隐单元的“基”构成隐藏层空间,隐藏层对输入矢量进行变换,将低维的模式输入数据变换到高维空间内,使得在低维空间内的线性不可分问题在高维空间内线性可分。详细一点就是用RBF的隐单元的“基”构成隐藏层空间,这样就可以将输入矢量直接(不通过权连接)映射到隐空间。当RBF的中心点确定以后,这种映射关系也就确定 了。而隐含层空间到输出空间的映射是线性的(注意这个地方区分一下线性映射和非线性映射的关系),即网络输出是因单元输出的线性加权和,此处的权即为网络可调参数

    下图是径向基神经元模型      

     《43案例分析》中介绍:径向基函数的激活函数是以输入向量和权值向量(注意此处的权值向量并非隐藏层到输出层的权值,具体看下面的径向基神经元模型结构)之间的距离||dist||作为自变量的。径向基网络的激活函数的一般表达式为。

    《模式识别与智能计算》中介绍:径向基网络传递函数是以输入向量与阈值向量之间的距离|| X-Cj ||作为自变量的,其中|| X -Cj ||是通过输入向量和加权矩阵C的行向量的乘积得到。此处的C就是隐藏层各神经元的中心参数,大小为隐层神经元数目*可见层单元数。再者,每一个隐神经元中心参数C都对应一个宽度向量D,使得不同的输入信息能被不同的隐层神经元最大程度地反映出来。

     

    得到的这个R就是隐层神经元的值。

    随着权值和输入向量之间距离的减少,网络输出是递增的,当输入向量和权值向量一致时,神经元输出为1。图中的b为阈值,用于调整神经元的灵敏度。利用径向基神经元和线性神经元可以建立广义回归神经网络,此种神经网络适用于函数逼近方面的应用。径向基函数和竞争神经元可以建立概率神经网络,此种神经网络适用于解决分类问题

    RBF神经网络学习算法需要三个参数:基函数的中心,方差(宽度)以及隐含层到输出层的权值。

    RBF神经网络中心选取方法:

           对于RBF神经网络的学习算法,关键问题是隐藏层神经元中心参数的合理确定。常用的方法是从中心参数(或者其初始值)是从给定的训练样本集里按照某种方法直接选取,或者是采用聚类的方法确定。

       ①直接计算法(随机选取RBF中心)

         隐含层神经元的中心是随机地在输入样本中选取,且中心固定。一旦中心固定下来,隐含层神经元的输出便是已知的,这样的神经网络的连接权就可以通过求解线性方程组来确定。适用于样本数据的分布具有明显代表性。

       ②自组织学习选取RBF中心法

          RBF神经网络的中心可以变化,并通过自组织学习确定其位置。输出层的线性权重则是通过有监督的学习来确定的。这种方法是对神经网络资源的再分配,通过 学习,使RBF的隐含层神经元中心位于输入空间重要的区域。这种方法主要采用K-均值聚类法来选择RBF的中心,属于无监督(导师)的学习方法。

      ③有监督(导师)学习选取RBF中心

         通过训练样本集来获得满足监督要求的网络中心和其他权重参数。常用方法是梯度下降法

      ④正交最小二乘法选取RBF中心法

         正交最小二乘法(Orthogoal least square)法的思想来源于线性回归模型。神经网络的输出实际上是隐含层神经元某种响应参数(回归因子)和隐含层至输出层间连接权重的线性组合。所有隐含层神经元上的回归因子构成回归向量。学习过程主要是回归向量正交化的过程。

         在很多实际问题中,RBF神经网络隐含层神经元的中心并非是训练集中的某些样本点或样本的聚类中心,需要通过学习的方法获得,使所得到的中心能够更好地反应训练集数据所包含的信息。

    基于高斯核的RBF神经网络拓扑结构

          第一层输入层:由信号源节点构成,仅起到数据信息的传递作用,对输入信息不做任何变换

          第二层隐含层:节点数视需要而定。隐含层神经元核函数(作用函数)是高斯函数,对输入信息进行空间映射的变换。

          第三层输出层,对输入模式做出响应。输出层神经元的作用函数为线性函数,对隐含层神经元输出的信息进行线性加权后输出,作为整个神经网络的输出结果。

    径向基网络传递函数是以输入向量与阈值向量之间的距离|| X-Cj ||作为自变量的。其中|| X-Cj ||是通过输入向量和加权矩阵C的行向量的乘积得到的。径向基神经网络传递参数可以取多种形式。常见的有:

    ①Gaussian函数(高斯函数)

    ②Reflected sigmoidal函数(反常S型函数)

    ③逆Multiquadric函数(逆 畸变校正函数

    较为常用的还是Gaussian函数,本文采用Gaussian函数:

    当输入自变量为0时,传递函数取得最大值1,。随着权值和输入向量间的距离不断减小,网络输出是递增的。也就是说,径向基函数对输入信号在局部产生响应。函数的输入信号X靠近函数的中央范围时,隐含层节点将产生较大的输出。由此可以看出这种网络具有局部逼近能力。

             当输入向量加到网络输入端时,径向基层每个神经元都会输出一个值,代表输入向量与神经元权值向量之间的接近程度。如果输入向量关于权值向量相差很多,则径向基层输出接近于0,;如果输入向量与权值向量很接近,则径向基层的输出接近于1,经过第二层(隐含层)的线性神经元,输出值就靠近第二层权值。在这个过程中,如果只有一个径向基神经元的输出为1,而其他神经元输出均为0或者接近0,那么线性神经元的输出就相当于输出为1的神经元对应的第二层(隐含层)权值的值。

    RBF网络训练:

    训练的目的是求两层的最终权值Cj、Dj和Wj。

    训练的过程分为两步:第一步是无监督学习,训练确定输入层与隐含层间的权值Cj、Dj;第二步是有监督学习,训练确定隐含层与输出层间的权值Wj。

    训练前提供输入向量X、对应的目标输出向量Y和径向基函数的宽度向量Dj。

    在第 l 次输入样品(l=1,2,...,N)进行训练时,各个参数的表达及计算方法如下:

    (1)确定参数

    确定输入向量X:

    ,n是输入层单元数

    确定输出向量Y和希望输出向量O

    ,q是输出层单元数

    ③初始化隐含层至输出层的连接权值

    其中p是隐藏层单元数,q是输出层单元数。

    参考中心初始化的方法给出隐藏层到输出层的权值初始化方法:

    其中mink是训练集中第k个输出神经元中所有期望输出的最小值;maxk是训练集中第k个输出神经元中所有期望输出的最大值。

    ④初始化隐含层各神经元的中心参数。不同隐含层神经元的中心应有不同的取值,并且与中心的对应宽度能够调节,使得不同的输入信息特征能被不同的隐含层神经元最大的反映出来。在实际应用中,一个输入信息总是包含在一定的取值范围内。不失一般性,将隐含层各神经元的中心分量的初值,按从小到大等间距变化,使较弱的输入信息在较小的中心附近产生较强的响应。间距的大小可由隐藏层神经元的个数来调节。好处是能够通过试凑的方法找到较为合理的隐含层神经元数,并使中心的初始化尽量合理,不同的输入特征更为明显地在不同的中心处反映出来,体现高斯核的特点。

    基于上述四项,RBF神经网络中心参数的初始值为:

    (p为隐含层神经元总个数,j=1,2,...,p)

    mini是训练集中第i个特征所有输入信息的最小值,maxi为训练集中第i 个特征所有输入信息的最大值。

    ⑤初始化宽度向量。宽度向量影响着神经元对输入信息的作用范围:宽度越小,相应隐含层神经元作用函数的形状越窄,那么处于其他神经元中心附近的信息在该神经元出的响应就越小。计算方法:

    df为宽度调节系数,取值小于1,作用是使每个隐含层神经元更容易实现对局部信息的感受能力,有利于提高RBF神经网络的局部响应能力。

    (2)计算隐含层第j 个神经元的输出值zj

    Cj是隐含层第 j 个神经元的中心向量,由隐含层第j个神经元对应于输入层所有神经元的中心分量构成,;Dj为隐含层第j个神经元的宽度向量,与Cj相对应,,Dj越大,隐含层对输入向量的影响范围就越大,且神经元间的平滑度也比较好;||.||为欧式范数。

    (3)计算输出层神经元的输出

    其中为输出层第k个神经元与隐含层第 j 个神经元间的调节权重。

    (4)权重参数的迭代计算

    RBF神经网络权重参数的训练方法在这里取为梯度下降法。中心、宽度和调节权重参数均通过学习来自适应调节到最佳值,迭代计算如下:

     为第k个输出神经元与第j个隐含层神经元之间在第t 次迭代计算时的调节权重。

    为第j 个隐含层神经元对于第i个输入神经元在第t 次迭代计算时的中心分量;

    为与中心对应的宽度

    η为学习因子

    E为RBF神经网络评价函数:

    其中,Olk为第k 个输出神经元在第l个输入样本时的期望输出值;ylk为第k个输出神经元在第l个输入样本时的网络输出值。

    综上所述,给出RBF神经网络的学习算法:

    ① 按(1)确定参数的五个步骤对神经网络参数进行初始化,并给定η和α的取值及迭代终止精度ε 的值。

    ②按下式计算网络输出的均方根误差RMS 的值,若RMS≤ε ,则训练结束,否则转到第③步

    ③按照(4)权重迭代计算,对调节权重,中心和宽度参数进行迭代计算。

    ④返回步骤②

     

    此处有一个利用Kmean初始化中心点和随机初始化中心点的,使用TensorFlow2.0搭建RBF神经网络层的代码:https://github.com/PetraVidnerova

    展开全文
  • 径向基函数径向基函数(Radical Basis Function,RBF)方法是Powell在1985年提出的。所谓径向基函数,其实就是某种”沿径向对称”的标量函数。通常定义为空间中任一点x到某一中心c之间欧氏距离的单调函数,可记作k(|...

    径向基函数

    径向基函数(Radical Basis Function,RBF)方法是Powell在1985年提出的。所谓径向基函数,其实就是某种”沿径向对称”的标量函数。通常定义为空间中任一点x到某一中心c之间欧氏距离的单调函数,可记作k(||x-c||),其作用往往是局部的,即当x远离c时函数取值很小。

    Tips:RBF的方法是要选择P个基函数,每个基函数对应一个训练数据,各基函数形式为,由于距离是径向同性的,因此称为径向基函数。||X-Xp||表示差向量的模,或者叫2范数。

    例如高斯径向基函数:
    这里写图片描述

    当年径向基函数的诞生主要是为了解决多变量插值的问题,可以看下面的图。具体的话是先在每个样本上面放一个基函数,图中每个蓝色的点是一个样本,然后中间那个图中绿色虚线对应的,就表示的是每个训练样本对应一个高斯函数(高斯函数中心就是样本点)。
    这里写图片描述

    然后假设真实的拟合这些训练数据的曲线是蓝色的那根(最右边的图),如果我们有一个新的数据x1,我们想知道它对应的f(x1)是多少,也就是a点的纵坐标是多少。那么由图可以看到,a点的纵坐标等于b点的纵坐标加上c点的纵坐标。而b的纵坐标是第一个样本点的高斯函数的值乘以一个大点权值得到的,c的纵坐标是第二个样本点的高斯函数的值乘以另一个小点的权值得到。而其他样本点的权值全是0,因为我们要插值的点x1在第一和第二个样本点之间,远离其他的样本点,那么插值影响最大的就是离得近的点,离的远的就没什么贡献了。所以x1点的函数值由附近的b和c两个点就可以确定了。拓展到任意的新的x,这些红色的高斯函数乘以一个权值后再在对应的x地方加起来,就可以完美的拟合真实的函数曲线了。

    径向基网络

    到了1988年, Moody和 Darken提出了一种神经网络结构,即RBF神经网络,属于前向神经网络类型,它能够以任意精度逼近任意连续函数,特别适合于解决分类问题。
    这里写图片描述

    RBF网络的结构与多层前向网络类似,它是一种三层前向网络。输入层由信号源结点组成;第二层为隐含层,隐单元数视所描述问题的需要而定,隐单元的变换函数是RBF径向基函数,它是对中心点径向对称且衰减的非负非线性函数;第三层为输出层,它对输入模式的作用作出响应。从输人空间到隐含层空间的变换是非线性的,而从隐含层空间到输出层空间变换是线性的。
    这里写图片描述

    RBF网络的基本思想是:用RBF作为隐单元的“基”构成隐含层空间,这样就可将输入矢量直接(即不需要通过权连接)映射到隐空间。换句话来说,RBF网络的隐层的功能就是将低维空间的输入通过非线性函数映射到一个高维空间。然后再在这个高维空间进行曲线的拟合。它等价于在一个隐含的高维空间寻找一个能最佳拟合训练数据的表面。这点与普通的多层感知机MLP是不同的。

    当RBF的中心点确定以后,这种映射关系也就确定了。而隐含层空间到输出空间的映射是线性的,即网络的输出是隐单元输出的线性加权和,此处的权即为网络可调参数。由此可见,从总体上看,网络由输人到输出的映射是非线性的,而网络输出对可调参数而言却又是线性的。这样网络的权就可由线性方程组直接解出,从而大大加快学习速度并避免局部极小问题。

    ————————————————
    整理自:
    http://blog.csdn.net/zouxy09/article/details/13297881
    http://blog.csdn.net/heyijia0327/article/details/38090229
    http://ghx0x0.github.io/2015/06/11/ML-RBFnet/
    http://www.cnblogs.com/zhangchaoyang/articles/2591663.html


    展开全文
  • RBF径向基函数

    万次阅读 2018-07-02 19:10:19
    一、径向基函数径向基函数是某种沿径向对称的标量函数,通常定义为样本到数据中心之间径向距离(通常是欧氏距离)的单调函数(由于距离是径向同性的)。RBF核是一种常用的核函数。它是支持向量机分类中最为常用的核...

    一、径向基函数

    径向基函数是某种沿径向对称的标量函数,通常定义为样本到数据中心之间径向距离(通常是欧氏距离)的单调函数(由于距离是径向同性的)。RBF核是一种常用的核函数。它是支持向量机分类中最为常用的核函数。常用的高斯径向基函数形如:

    其中,可以看做两个特征向量之间的平方欧几里得距离。x’为核函数中心,是一个自由参数,是函数的宽度参数 , 控制了函数的径向作用范围。。一种等价但更为简单的定义是设一个新的参数 \gamma,其表达式为

    因为RBF核函数的值随距离减小,并介于0(极限)和1(当x = x’的时候)之间,所以它是一种现成的相似性度量表示法。核的特征空间有无穷多的维数;对于 =1,它的展开式为:

    径向基函数二维图像:
    RBF核
    RBF 拥有较小的支集。针对选定的样本点,它只对样本附近的输入有反应,如下图。
    这里写图片描述
    RBF 使样本点只被附近(圈内)的输入激活。
    T. Poggio 将 RBF 比作记忆点。与记忆样本越近,该记忆就越被激活。
    RBF 核与多项式核相比具有参数少的优点。因为参数的个数直接影响到模型选择的复杂性。
    其他的径向基函数有:
    Reflected Sigmoidal(反常S型)函数:

    Inverse multiquadrics(拟多二次)函数:

    σ称为径向基函数的扩展常数,它反应了函数图像的宽度,σ越小,宽度越窄,函数越具有选择性。

    二、径向基网络

    RBF(Radial Basis Function,径向基)网络是一种单隐层前馈神经网络,它使用径向基函数作为隐层神经元激活函数,而输出层则是对隐层神经元输出的线性组合。径向基函数网络具有多种用途,包括包括函数近似法、时间序列预测、分类和系统控制。他们最早由布鲁姆赫德(Broomhead)和洛维(Lowe)在1988年建立。
    RBF网络分为标准RBF网络,即隐层单元数等于输入样本数;和广义RBF网络,即隐层单元数小于输入样本数。但广义RBF的隐藏层神经元个数大于输入层神经元个数,因为在标准RBF网络中,当样本数目很大时,就需要很多基函数,权值矩阵就会很大,计算复杂且容易产生病态问题。
    径向基网络:
    径向基网络

    RBF神经网络的基本思想:用RBF作为隐单元的“基”构成隐藏层空间,隐藏层对输入矢量进行变换,将低维的模式输入数据变换到高维空间内,使得在低维空间内的线性不可分问题在高维空间内线性可分。详细一点就是用RBF的隐单元的“基”构成隐藏层空间,这样就可以将输入矢量直接(不通过权连接)映射到隐空间。当RBF的中心点确定以后,这种映射关系也就确定 了。而隐含层空间到输出空间的映射是线性的(注意这个地方区分一下线性映射和非线性映射的关系),即网络输出是隐单元输出的线性加权和,此处的权即为网络可调参数。
    通常采用两步过程来训练RBF网络:第一步,确定神经元中心,常用的方式包括随机采样、聚类等;第二步,利用BP算法等来确定参数。
    [Park and Sandberg,1991]证明,具有足够多隐层神经元的RBF网络能以任意精度逼近任意连续函数。
    且RBF网络可以处理系统内的难以解析的规律性,具有良好的泛化能力,并有很快的学习收敛速度。
    RBF网络学习收敛得比较快的原因:当网络的一个或多个可调参数(权值或阈值)对任何一个输出都有影响时,这样的网络称为全局逼近网络。由于对于每次输入,网络上的每一个权值都要调整,从而导致全局逼近网络的学习速度很慢。BP网络就是一个典型的例子。如果对于输入空间的某个局部区域只有少数几个连接权值影响输出,则该网络称为局部逼近网络。常见的局部逼近网络有RBF网络、小脑模型(CMAC)网络、B样条网络等。

    三、参数计算

    中心点的计算:
    标准RBF的样本点即为中心
    广义RBF的中心点通过随机采用、聚类等方法确定
    w和β的计算:
    人为指定:所有神经元的β都一样,β=1/2(的平方),=dmax/根号下的2M。dmax为任意两个样本点距离的最大值,M为样本个数。
    BP算法迭代确定。

    四、RBF神经网络与SVM with RBF Kernel的区别和联系:

    从模型上看,区别不大,区别在于训练方式。
    RBF神经网络训练分两阶段。第一阶段为非监督学习,从数据中选取记忆样本(上上图中的紫色中心)。例如聚类算法可在该阶段使用。第二阶段为监督学习,训练记忆样本与样本输出的联系。该阶段根据需要可使用 AD/BP。(AD,即 Automatic Differentiation (Backpropagation) )

    展开全文
  • 径向基函数神经网络

    2016-08-28 17:09:19
    前馈神经网络之径向基函数神经网络
  • Matlab的RBF径向基神经网络用于销售额销售量的预测-RBF径向基神经网络,用于销售额、销售量的预测.rar RBF径向基神经网络,用于销售额、销售量的预测
  • 径向基函数神经网络进行异或分类,首先在4个象限随机生训练数据,然后进行FCM聚类,取4个隐层神经元代表分成4类,最后通过伪逆求出输出层神经元权重,输出通过0和1区分
  • 电子散斑干涉技术(ESPI)测量物体变形时,初始载荷下采集的散斑图像呈现出粗宽分布,提出了一种基于径向基函数的粗宽条纹图滤波方法。介绍了基于径向基函数平滑插值的滤波原理,分析了该滤波方法的参数选取问题。通过...
  • 内含6个RBF径向基神经网络的matlab代码,注释清楚简明。
  • 为解决建筑物基础沉降量的安全监测问题,对其进行有效的预测、校核与分析,运用MATLAB软件建立径向基神经网络模型对某市建筑物的基础沉降量进行预测.结果表明:径向基神经网络的结构形式简易,适应能力更强,预测误差比BP...
  • 径向基插值

    2014-06-13 15:42:01
    单张照片提取二维特征点 采用RBF径向基函数进行插值 能给得到特定的三维人脸模型
  • 剑桥基网络的matlab代码使用多层感知器和径向基函数神经网络的行人分类 该存储库包含使用多层感知器和径向基函数神经网络进行行人分类的源代码。 先决条件 此存储库中的源代码需要: 运行代码 复制INRIA文件夹内幕...
  • 补偿光线步进法通过预处理将烟雾仿真数据分解为一组径向基函数的近似值和残差项。在只考虑径向基函数近似的密度下计算源辐射分布,并在光线步进过程中加入残差的影响。虽然这种算法可以带来实时高质量的渲染结果,...
  • 径向基函数_matlab.rar

    2020-04-25 20:25:43
    给出了偏微分方程的径向基函数配点法的数值解法,进行了数值模拟,并且给出了图形-The numerical solution of the radial basis function with partial differential equation method, numerical simulation, and ...
  • 径向基函数神经网络(RBFNN)详解

    万次阅读 多人点赞 2019-09-13 16:29:05
    径向基函数神经网络(RBFNN) 前言 RBFNN是20世纪80年代末提出的一种单隐层、以函数逼近为基础的前馈神经网络。随着研究日渐成熟,RBFNN以其结构简单、非线性逼近能力强以及良好的推广能力,受到各领域研究者的极...
  • 主要介绍了Python实现的径向基(RBF)神经网络,结合完整实例形式分析了Python径向基(RBF)神经网络定义与实现技巧,需要的朋友可以参考下
  • 为了实现煤炭指标的快速智能预测,建立了基于模糊聚类的径向基函数(RBF)神经网络预测模型,将已测定的收到基全水、收到基灰分、收到基挥发分和收到基全硫的含量作为分类指标进行模糊聚类,根据分类结果分别建立了基于...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 11,546
精华内容 4,618
关键字:

径向基