精华内容
下载资源
问答
  • ------------------------- 根据 ISO 226 计算响度加权系数g =loud_weight(f) g =loud_weight(f,phon) G = LOUD_WEIGHT(F) 返回响度加权频率系数 F (Hz)。 功能是基于 ISO 中定义的 65 方响度226:2003。 G = LOUD_...
  • 针对高速移动环境下由多普勒频移引起的子载波间干扰(inter-carrier interference,ICI),提出一种引入加权系数消除ICI的二次快时变信道估计算法。该算法进行两次信道估计,第一次估计用于提供信道状态信息,在保证...
  • 一种基于QoS的自适应加权系数下行调度算法,罗莎,赵新胜,本文对TD-LTE/LTE-A系统中的无线资源调度问题展开研究和探讨。基于对几种传统调度算法性能比较,针对不同类型业务的QoS要求,提出一种
  • 飞控串级加权系统PID算法,算法主要分为内环加权系数控制、外环加权系数控制,外环的输出作为内核的输入,内环的输出作为电机融合的输入、电机的融合算法输出pwm波驱动电调,从而控制电机的转速,加权系数的引入增加...
  • 为了提高预测精度,提出了时序可变加权系数的组合预测模型。以组合预测模型的误差平方和最小为优化准则,建立最优的非负可变加权系数的组合预测模型,计算不同时刻单项预测模型的最优加权系数。利用时间序列ARMA模型对...
  • 利用两层BP神经网络训练加权系数。两组3输入为[1 2;-1 1;1 3],希望的输出为[1 1;1 1].隐层的转移函数取S型转移函数,输出的转移函数线性转移函数。
  • 为了提高预测精度,提出了灰色可变加权系数的组合预测模型。以组合预测模型的误差平方和最小为优化为准则,建立最优的非负可变加权系数的组合预测模型,计算不同时刻单项预测模型的最优加权系数。利用灰色GM(1,1)模型对...
  • 针对车辆悬架LQG控制,提供一种确定与车辆平顺性各评价指标相关加权系数的方法。根据特定工况下对车辆平顺性各评价指标的具体要求,利用层次分析法,确定它们的主观加权比例系数;根据特定工况下原型悬架的性能统计...
  • 提出了一种改进的OFDM联合时间频率时域快速同步算法,通过引入加权系数,本算法使用一个OFDM符号长度的训练符号,就可以在时域很好的完成AWGN信道下OFDM通信系统的同步。该算法具有较高的定时同步精度和较快的同步...
  • 从分数演算基本的G-L定义出发,引出G-L数值算法中加权系数――G-L加权系数与广义二项式系数之间的关系,进而通过T函数来求解G-L加权系数.而后用加权系数的参数构建一个二维平面,使这些参数由整数域拓展到整个实数域,...
  • 提出一种固定边界的变...部加权系数之间定量的数学关系。 通过系统的稳态误差指标可以设计出固定边界的平滑方法, 从而既消 除了系统的抖振又满足了对系统稳态误差指标的要求。仿真结果验证了该方法的有效性。</p>
  • 萤火虫激发的加权系数无线传感器网络的同步性
  • 电信设备-基于最优加权系数的非理想汇报信道下的决策融合方法.zip
  • 加权系数联邦卡尔曼滤波在GPS_DR组合定位系统中的应用研究.pdf
  • 提出了利用神经网络求解最小二乘准则下和最小一乘准则下最优加权系数的方法,这种神经优化方法可以在电路时间常数数量级给出准确解,而且不存在编程复杂性问题。
  • 行业分类-设备装置-基于高级残差预测加权系数的MVHEVC编码视频信息隐写方法
  • 行业资料-电子功用-具有可变加权系数线性组合控制器的电动助力转向系统
  • 行业资料-电子功用-具有可变加权系数线性组合控制器的电动助力转向系统的介绍分析.rar
  • 针对传统的切比雪夫加权阵列仅局限于一维线阵,而很多应用如卫星天线、雷达天线等使用的都是二维平面阵列,本文首先推导了一维切比雪夫阵列权值的计算公式,并仿真验证其对旁瓣抑制的效果。接着重点提出了两种均匀面...
  • WEIGHTEDCORRS 返回加权相关系数的对称矩阵 R,该矩阵根据输入的 T×N 矩阵 Y 计算,该矩阵 Y 的行是观察值,列是变量,以及观察值权重的输入 T×1 向量 w。 如果观测值的相关性不同并且需要根据某些理论假设或知识...
  • 在给定一组值和总体权重时计算基尼系数。 缺乏文件和检查。
  • 权重系数确定matlab代码...为了估算每个点位置上标量函数的梯度,DotWalkR使用最近邻搜索函数在输出值矩阵内找到最接近的网格点,然后计算替代值的加权平均值以用于仿真。 DotWalkR的输入数据为: 输入数据:长格
  • 论文研究-基于相关系数加权几何平均组合预测模型的性质.pdf, 加权几何平均组合预测为一种非线性的组合预测方法.针对基于相关系数加权几何平均组合预测模型,定义了优...
  • 基于Matlab的机器学习WKNN,加权K近邻,含有数据包内含178个数据样本。 基于Matlab的机器学习WKNN,加权K近邻,含有数据包内含178个数据样本。 积分不够私信我
  • 计算权重的思路大致是:假设对预测值的加权系数为K1,那么对量测的加权系数就是(E-K1),E为单位矩阵,根据预测及量测的协方差矩阵,我们可以计算出加权求和后的结果的协方差矩阵P(K1),P(K1)是一个以K1为自变量的...

    一直想把自己工作学习中的感悟写出来与大家分享,但是每写到细节处,完美主义的思维模式时常让我止步不前。某一天,我突然想,还是先让自己放松一些,重点是分享出来。这之后,我终于可以写下去了。表述中有不严谨甚至不正确的地方,愿大家不吝赐教,给予指正。我总觉得,这个世界上最强大的网络,应该是人脑之间的联网,思想之间的共享。希望与大家在思维碰撞中,共同成长!

    -----------------------------------------

    网上已经有很多关于卡尔曼滤波的很好的讲解。在这里与大家分享一下我自己对卡尔曼滤波的学习及使用体会。

    这里我们从最佳加权求和的角度来理解一下卡尔曼滤波。

    首先介绍一下“逆方差加权”(https://baike.lichenjy.com/nifangchajq/3385.shtml):

    设X1与X2是对信号X的两次独立测量,假设两次测量均服从正态分布,测量方差分别为

    ,那么,对X的最佳估计为:

    (1.1)

    这里

    为加权系数,计算如下:

    由权重的计算,我们可以看出,每次测量的权重与它的测量方差成反比,也就是测量的越准,那么它的权重越大。同时,所有权重的和要为1,所以对每个权系数要进行归一化,也就是除以

    下面我们来看一下卡尔曼滤波。在使用卡尔曼滤波之前,首先要建立两个方程:

    (1.2)

    (1.3)

    公式(1.2)描述的是信号自身的运动规律(状态转移方程),该方程表明了信号的可预测性,

    可以理解为预测噪声,该值越大,表明预测越不准确,反之,该值越小,则表明预测越可靠。推至极端,如果该值为0,则表明这是个确定性信号,完全可以准确预测,此时,也就不再需要卡尔曼滤波了,因为我们已经可以得到信号的准确值。

    公式(1.3)描述了对信号的量测方法,也就是量测模型(量测方程),

    是量测噪声,该值越大,则表明量测越不准确。反之,该值越小,则表明量测越可靠。同理,推至极端,如果该值为0,则证明可以准确的测得当前信号,那也就不需要进行滤波估计了,因为我们已经可以测得准确的信号值。

    如上所述,正因为该信号可以以一定精度被预测,同时,也可以以一定精度被量测,而预测与量测都不完全准确,所以,我们可以将两者进行加权融合,以得到对信号的更高精度的估计。

    那么,如何对两者进行加权融合呢?

    我们可以结合前述的逆方差加权原理,对预测信号和量测信号按照逆方差加权进行加权求和。

    要进行加权求和,首先要知道每一种测量得到的期望和方差。我们可以将预测过程,也看做是一种量测,只不过是根据上一次的测量,以一种预测的方式,来得到对当前信号的测量。测量的期望值与方差可以由状态转移方程来得到。

    假设我们已经得到了k-1时刻对信号的最佳估计

    ,及其估计的协方差矩阵
    。现在我们要由
    去预测
    ,根据系统的状态转移方程(其实也就是预测方程),我们可以得到对k时刻信号的预测期望值:

    (1.4)

    而预测的噪声包含两部分,一部分来自于

    的噪声,另一部分来自于k-1到k时刻新产生的过程噪声

    的噪声导致的对k时刻X预测值的噪声的协方差矩阵为:

    (1.5)

    在一维的情况下,我们可以很容易推得(1.4)和(1.5)两个结果,对于高维情况,公式包含了矩阵运算的特点。

    现在,我们再把k-1到k时刻新产生的过程噪声

    也考虑进来,由其导致的对k时刻的X值
    的预测噪声的协方差矩阵为:

    (1.6)

    这里

    为噪声
    的协方差矩阵,G为噪声驱动矩阵。

    总的预测噪声

    为这两部分的和:

    (1.7)

    至此,我们得到了对信号预测的期望

    以及预测噪声的协方差矩阵
    (在一维的情况下,协方差矩阵就是方差)。对于量测,我们可以直接使用本次测量到的值作为量测期望
    ,而量测的噪声一般都可以从测量设备本身的说明手册中查得,也可以自己通过对传感器进行测试获得。 也就是说,量测方程(1.3)中的
    的统计特性是可以事先获得的,进而也就可以得到量测的协方差矩阵

    现在我们有了对同一个信息的预测值、预测方差以及量测值、量测方差,而且这两种噪声又都是不相关的,那么我们可以利用这两路信息通过加权求和得到对该信息的最优估计。(不相关意味着,两路信息是独立的,无法通过A测量的信息获取B测量信息。试想,如果两路信息完全相关,则意味着,知道了A的测量值,也就等效于知道了B的测量值,那么此时,A与B是等价的,我们并没有获得额外的信息,那就谈不上融合了)。

    接下来,我们要计算预测值与量测值在融合中的权重。如果是一维的情况,那很简单,我们直接套用文章开头介绍的逆方差加权公式就可以了。可是,在实践中,基本上都是多维的情况,加权系数可以通过协方差矩阵计算出来。计算权重的思路大致是:假设对预测值的加权系数为K1,那么对量测的加权系数就是(E-K1),E为单位矩阵,根据预测及量测的协方差矩阵,我们可以计算出加权求和后的结果的协方差矩阵P(K1),P(K1)是一个以K1为自变量的函数,求取P(K1)取最小值时的K1的值,就是我们要计算的权重了,而求极值,无非就是固定的套路,对自变量求导,然后让导数等于0,进而得到函数取得极值时自变量的值。严谨而全面的推导过程大家可以参考《卡尔曼滤波与组合导航原理》或《STATE ESTIMATION FOR ROBOTICS》的推导过程。

    现在,我们重新梳理一下kalman滤波一次完整的运算过程,然后我们从结果上来分析一下卡尔曼滤波运行的内在逻辑。

    (step 1)状态预测:

    (1.8)

    (step 2)计算预测的协方差矩阵:(描述预测的不准确程度):

    (1.9)

    这里

    是上一次滤波的结果的协方差矩阵,
    是本次滤波周期内新产生的噪声,一般是输入值,可从传感器手册查得。以imu这种传感器为例,
    对应的就是陀螺和加速度计的噪声所对应的协方差矩阵。

    (step 3)由预测方差及量测方差计算滤波增益:

    (1.10)

    这里

    为量测方程(1.3)中的量测噪声
    的协方差矩阵,描述了量测的不准确程度。以GPS这种测量设备为例,
    就是由GPS给出的位置、速度的测量方差构成的矩阵,这些参数一般可以在GPS手册上查得。

    (step 4)计算状态估计:

    (1.11)

    (step 5)计算本次估计的协方差矩阵:(描述本次估计的质量)

    (1.12)

    前两步我们在之前介绍了,下面我们主要分析一下后三步。从公式(1.11)看,最终的状态估计值是由

    两部分组成,前者是由预测方程得到的对当前状态的预测值,后者我们可以看成是由量测值计算出的对预测值的修正。 后者括号中的
    为预测的量测值,而
    为量测到的量测值,这两者相减即得到了对Z的量测与预测的差别,乘上增益矩阵
    ,即从量测与预测的差别中提取出对预测的校正量。不过这里我们也许会疑问:
    得出的差值是与量测量Z向对应的,怎么乘以
    后就变成对状态量
    的修正量了呢?为解决这个疑问,我们还有必要再分析一下
    。为了阅读方便,我们在此重写公式(1.10)

    为预测值
    的协方差矩阵,按照协方差矩阵定义

    (1.13)

    这里

    为列向量。

    (1.14)

    由上式来看,

    在乘上
    后,变成了
    的协方差矩阵。我们以GPS/IMU组合导航应用为例子来分析(分析kalman滤波,我们就以此应用为背景吧)。在组合导航应用中,常采用误差作为待估计的状态变量。这时,协方差矩阵的元素其实就是其所对应的状态变量之间的互相关(关于协方差,互相关,如果不是很熟悉的同学,建议在网上查一下,这些概念对理解统计滤波,很重要),“互相关”,顾名思义,它定量的描述了两个变量之间的变化关系。所以,
    描述了X与Z之间的变化关系,乘上它,可以将对Z的修正量变成了对X的修正量。同时,
    也描述了预测的不确定程度,
    越大,证明预测越不准确,由(1.10)此时
    会变大,表明量测的修正作用变大,也就是更相信量测。然后我们再来看(1.10)中的
    部分,其中
    为量测的协方差矩阵,描述了量测的不确定性程度,
    越大,则
    越小,也就是越不相信量测。

    如果我们也把逆方差求和公式写成

    的修正形式,再对比kalman滤波的公式,也许能帮助我们更容易的理解逆方差加权求和在kalman滤波过程中的体现。

    我们将逆方差公式也写成

    校正的形式如下:

    (1.15)

    同时,我们也将kalman滤波公式中的(1.10)代入(1.11),得到:

    (1.16)

    对比(1.15)与(1.16),

    就相当于
    就相当于
    ,只不过
    的互相关为1,或者说是单位矩阵。

    对于kalman滤波,我觉得还有一点值得我们讨论一下,就是kalman滤波中的协方差矩阵P。在我看来,kalman滤波中最重要的就是这个协方差矩阵了。整个滤波过程主要就是不断更新这个协方差矩阵。作为协方差矩阵,它不但描述了它所对应的状态变量的精度,更重要的,它还描述了状态变量之间的关系,也就是给出了各个状态变量之间的互相关。我们还以组合导航为例来了解一下协方差矩阵的作用。在典型的GPS/INS组合导航中,我们的观测量一般是GPS给出的位置、速度。可想而知,这时候,INS(惯性导航系统)的位置、速度误差能够得到直接的观测,进而保证了INS的位置、速度不会随时间而发散。不过,除此之外,我们会发现,俯仰角(pitch)和横滚角(roll)误差也都能得到很好的校正(这里假设我们的状态变量只有位置误差、速度误差、姿态误差,暂不考虑传感器零偏)。我们的直接观测量是位置误差和速度误差,那么俯仰角和横滚角的误差是怎么估计出来的呢?这主要就是协方差矩阵的作用了,因为它描述了各个状态变量之间的关系,而俯仰角和横滚角的误差是和位置、速度误差相关的,所以通过协方差矩阵我们可以由速度、位置误差得到俯仰角、横滚角的误差。我们也可以定性的来分析一下,假设俯仰和横滚出现了误差,那么必然导致算法计算的重力加速度在水平面上的投影出现误差,进而导致对载体加速度的计算误差,通过积分,导致速度误差,进一步积分,导致位置误差。所以,可见,俯仰角和横滚角的误差最终会反映到速度、位置误差中。反过来,通过对位置、速度误差的直接观测,也可以推知俯仰角和横滚角的误差。这里我们没有说到偏航角(yaw)的误差,因为对偏航角误差的观测还需要另外的条件,那就是需要载体在水平面内做有加速度的运动。如果载体在水平面内是静止或者匀速直线运动,那么加速度计在水平面内则没有测量输出,那么偏航角误差也就不会通过加速度投影反应到位置、速度误差当中,也就是说,此时的偏航角误差与位置、速度误差并不相关,所以,此时无法通过位置、速度误差推知偏航角的误差。

    我们也从公式中来看一下协方差矩阵的作用:结合公式(1.16)和(1.14)来看,(1.16)中第二项当中的

    ,由(1.14)的推导我们可知
    就是量测量与状态量之间的互相关,如果其中某项的互相关系数为0,那么由(1.16)看,也就不会差生修正量叠加到
    上面。

    另外,值得一提的是,协方差矩阵的逆又叫信息矩阵。如果在滤波过程中,我们一直维护的不是协方差矩阵,而是它的逆:信息矩阵,那么这个过程又叫做信息滤波。信息矩阵也有它的物理意义,在slam常用的图论方法当中,它描述了图中各个定点之间连接关系,扮演了邻接矩阵的角色。也就是说,如果其中的某一项元素不为0,那么表明该元素所对应的两个状态变量之间存在约束,也就是在图中,这两个顶点之间存在一条边。同时,信息矩阵也是非线性优化当中的Hessian矩阵,在非线性优化中扮演着重要角色。

    展开全文
  • 一种基于区域特性选择与加权平均相结合的遥感图像融合方法,马艳军,石爱业,给出了一种新的遥感图像融合方法,其基本思想是首先对多光谱遥感图像(MS)进行IHS变换得到IHS色彩空间的色度H、饱和度S和强度分量I�
  • 最小二乘法和加权最小二乘法,需要同时用到所有的测量数据,在计算时不考虑测量数据的时间顺序。当测量数据很多时,要求计算机具有很大的存储量。在实际处理过程中,测量数据往往是按时间顺序逐步给出的,我们可先...

    RLS

    最小二乘法和加权最小二乘法,需要同时用到所有的测量数据,在计算时不考虑测量数据的时间顺序。当测量数据很多时,要求计算机具有很大的存储量。在实际处理过程中,测量数据往往是按时间顺序逐步给出的,我们可先处理已经得到的一批数据,得到观测值的近似估值,来了新的数据后,再对原估值进行修正,这样可以减少计算机的存储量。
    简单来说,递归最小二乘(RLS)就是这样的算法。
    相关算法的推导可以在网上找到。
    这里直接给出RLS的递推算法:

    阻抗估计

    这一章使用RLS来估计环境的阻抗。
    回到上面一张图,我们假设环境的阻抗模型为:

    估计值和观测值如下:

    这里预先假设ke为1562.23,de=2*sqrt(ke) , 仿真结果如下:

    可以看出,使用RLS正确的估计出了环境刚度系数和阻尼系数。
    如果尝试修改(减小)权重系数,那么可以发现收敛可能会变得不稳定或变慢。

    展开全文
  • 针对目前多传感器数据...该方法将传感器最优加权系数的求解,转化为估计值的均方误差性能表面的最优解搜索,通过加入自适应阶段,采用自适应最小均方误差(LMS)算法调整传感器加权系数。仿真结果表明该方法的有效性。
  • 指数加权平均(exponentially weighted averges),也叫指数加权移动平均,是一种常用的序列数据处理方式。 它的计算公式如下: 其中, θtθtθ_t:为第 t 天的实际观察值, VtVtV_t: 是要代替 θtθtθ_t 的估...

    本文知识点:

    1. 什么是指数加权平均?
    2. 为什么在优化算法中使用指数加权平均?
    3. β 如何选择?

    1. 什么是指数加权平均

    指数加权平均(exponentially weighted averges),也叫指数加权移动平均,是一种常用的序列数据处理方式。

    它的计算公式如下:

    其中,

    • θt θ t :为第 t 天的实际观察值,
    • Vt V t : 是要代替 θt θ t 的估计值,也就是第 t 天的指数加权平均值,
    • β: 为 Vt1 V t − 1 的权重,是可调节的超参。( 0 < β < 1 )

    例如:

    我们有这样一组气温数据,图中横轴为一年中的第几天,纵轴为气温:

    直接看上面的数据图会发现噪音很多,

    这时,我们可以用 指数加权平均 来提取这组数据的趋势,

    按照前面的公式计算:

    这里先设置 β = 0.9,首先初始化 V00 V 0 = 0 ,然后计算出每个 Vt V t

    将计算后得到的 Vt V t 表示出来,就得到红色线的数值:

    可以看出,红色的数据比蓝色的原数据更加平滑,少了很多噪音,并且刻画了原数据的趋势

    指数加权平均,作为原数据的估计值,不仅可以 1. 抚平短期波动,起到了平滑的作用,2. 还能够将长线趋势或周期趋势显现出来

    所以应用比较广泛,在处理统计数据时,在股价等时间序列数据中,CTR 预估中,美团外卖的收入监控报警系统中的 hot-winter 异常点平滑,深度学习的优化算法中都有应用。


    2. 为什么在优化算法中使用指数加权平均

    上面提到了一些 指数加权平均 的应用,这里我们着重看一下在优化算法中的作用。

    以 Momentum 梯度下降法为例,

    Momentum 梯度下降法,就是计算了梯度的指数加权平均数,并以此来更新权重,它的运行速度几乎总是快于标准的梯度下降算法

    这是为什么呢?

    让我们来看一下这个图,

    例如这就是我们要优化的成本函数的形状,图中红点就代表我们要达到的最小值的位置,
    假设我们从左下角这里出发开始用梯度下降法,那么蓝色曲线就是一步一步迭代,一步一步向最小值靠近的轨迹。

    可以看出这种上下波动,减慢了梯度下降法的速度,而且无法使用更大的学习率,因为如果用较大的学习率,可能会偏离函数的范围。

    如果有一种方法,可以使得在纵轴上,学习得慢一点,减少这些摆动,但是在横轴上,学习得快一些,快速地从左向右移移向红点最小值,那么训练的速度就可以加快很多。

    这个方法就是动量 Momentum 梯度下降法,它在每次计算梯度的迭代中,对 dw 和 db 使用了指数加权平均法的思想

    即根据式子:

    VdW V d W Vdb V d b

    VdW=βVdW+(1β)dW V d W = β ∗ V d W + ( 1 − β ) ∗ d W

    Vdb=βVdb+(1β)db V d b = β ∗ V d b + ( 1 − β ) ∗ d b

    来代替 dw 和 db 做梯度更新:

    W:=WαVdW W := W − α V d W

    b:=bαVdb b := b − α V d b

    这样我们就可以得到如图红色线的轨迹:

    可以看到:
    纵轴方向,平均过程中正负摆动相互抵消,平均值接近于零,摆动变小,学习放慢。
    横轴方向,因为所有的微分都指向横轴方向,因此平均值仍然较大,向最小值运动更快了。
    在抵达最小值的路上减少了摆动,加快了训练速度。


    3. β 如何选择?

    根据前面的计算式子:

    V100 V 100 展开得到:

    这里可以看出, Vt V t 是对每天温度的加权平均,之所以称之为指数加权,是因为加权系数是随着时间以指数形式递减的,时间越靠近,权重越大,越靠前,权重越小。

    当 β = 0.9 时, 0.9100.351/e 0.9 10 ≈ 0.35 ≈ 1 / e
    假如我们 1/e 1 / e 为一个分界点,当权重衰减到这个值以下,就可以忽略不计.

    那么对任意 β, β11β1/e β 1 1 − β ≈ 1 / e , 所以指数加权平均就是最近 N11β N = 1 1 − β 天的平均值

    再来看下面三种情况:

    当 β = 0.9 时,指数加权平均最后的结果如图红色线所示,代表的是最近 10 天的平均温度值;
    当 β = 0.98 时,指结果如图绿色线所示,代表的是最近 50 天的平均温度值;
    当 β = 0.5 时,结果如下图黄色线所示,代表的是最近 2 天的平均温度值;

    β 越小,噪音越多,虽然能够很快的适应温度的变化,但是更容易出现奇异值。

    β 越大,得到的曲线越平坦,因为多平均了几天的温度,这个曲线的波动更小。
    但有个缺点是,因为只有 0.02 的权重给了当天的值,而之前的数值权重占了 0.98 ,
    曲线进一步右移,在温度变化时就会适应地更缓慢一些,会出现一定延迟。

    通过上面的内容可知,β 也是一个很重要的超参数,不同的值有不同的效果,需要调节来达到最佳效果,一般 0.9 的效果就很好

    学习资料:
    https://www.deeplearning.ai/

    推荐阅读
    历史技术博文链接汇总
    也许可以找到你想要的:
    [入门问题][TensorFlow][深度学习][强化学习][神经网络][机器学习][自然语言处理][聊天机器人]

    展开全文

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 36,794
精华内容 14,717
关键字:

加权系数