2019-04-29 20:59:05 qq_41391174 阅读数 352
  • 机器学习之决策树视频教学

    决策树算法是一种机器学习方法,其代表有ID3、CART、C4.5等。本次课程主要讲解了这三种决策树,其中包括:信息增益、增益率、基尼指数、预剪枝和后剪枝、连续值处理、缺失值处理以及多变量决策树等知识。

    1527 人正在学习 去看看 王而川

三 、高增益滤波器

1、高增益滤波的原理

弥补高通滤波器的缺陷,在增强边和细节的同时,不丢失原图像的低频成分。
在这里插入图片描述

  • 当A= 1时,高增益就是高通滤波器。
  • 当A >1时,原图像的一部分被加到高通中。

2、滤波器扩大因子及模板系数设计

  • 对于3x3的模板,设w =9A - 1;(高通时 w =8),A的值决定了滤波器的特性。
  • 当 A =1.1时,意味着把0.1个原图像加到基本高通上。当A = 1.2时,结果处在上限的边缘。

在这里插入图片描述

3、高通和高增益模板尺寸的选定

理论上高通和高增益的模板尺寸可以是任意的尺寸。
根据经验,高通滤波模板很少大于3x3

4、高增益滤波器效果的分析

  • 1、高增益比高通的优点,既保留了边,有保留了层次。
  • 2、噪音对结果图像的视觉效果有着重要的影响,高增益在增强了边的同时也增强了噪音。

5、拉普拉斯算子

在这里插入图片描述

6、微分滤波器的原理

计算这个向量的大小为:
在这里插入图片描述
考虑一个3x3的图像区域,z代表灰度级,上式中在点z5的f值可用数字方式近似。
在这里插入图片描述
在这里插入图片描述

(1)、用绝对值替换平方和平方根有:

在这里插入图片描述

(2)、另外一种计算方法是使用交叉法:

在这里插入图片描述
在这里插入图片描述

7、一阶微分算法

(1)、Roberts交叉梯度算子

在这里插入图片描述

  • 梯度计算有两个模板组成,第一个求得梯度的第一项,第二个求得梯度的第二项,然后求和,得到梯度。
  • 两个模板称为Roberts交叉梯度算子。
  • 实例:
  • 在这里插入图片描述
(2)、Prewitt梯度算子

3 x 3的梯度模板
在这里插入图片描述
在这里插入图片描述

非常适用于横向的或者纵向的细节边缘。

(3)、Sobel梯度算子

3 x 3的梯度模板
在这里插入图片描述
在这里插入图片描述

8、二阶微分算法–拉普拉斯算子

其应用强调的是图像中灰度值的突变,并不强调灰度级缓慢变化的区域。

对于一个连续的二元函数F(x,y),其拉普拉斯算子定义为
在这里插入图片描述
对于数字图像,拉普拉斯算子可以简化为
在这里插入图片描述
在这里插入图片描述
标准的拉普拉斯算子对干扰噪声很敏感,需要加以改进。改进的方法是先平滑后增强。
在这里插入图片描述

1、 微分滤波器的效果分析
(1)、直接使用,与高通类似

在这里插入图片描述

2019-11-19 17:53:33 hahahahhahha 阅读数 87
  • 机器学习之决策树视频教学

    决策树算法是一种机器学习方法,其代表有ID3、CART、C4.5等。本次课程主要讲解了这三种决策树,其中包括:信息增益、增益率、基尼指数、预剪枝和后剪枝、连续值处理、缺失值处理以及多变量决策树等知识。

    1527 人正在学习 去看看 王而川

重点:
(1)新的细节增强算法提升
(2)极大简化了计算过程
(3)在增强细节的同时压制噪声
(4)有效的红外细节信息增强
文章信息:
2014年3月18日收录
2014年7月24日在网上发布

关键词:
细节增强
引导滤波
噪声降低
红外图像
高动态范围

摘要:
1.介绍
2.算法思路
3.引导图像滤波技术
3.1 滤波过程
3.2 滤波核权重分析
3.3 增益掩模技术
4. 基础部分和细节部分的处理过程
5. 实验结果
6. 结论
利益冲突:无
参考文献:

2019-09-30 15:48:34 Zorro721 阅读数 155
  • 机器学习之决策树视频教学

    决策树算法是一种机器学习方法,其代表有ID3、CART、C4.5等。本次课程主要讲解了这三种决策树,其中包括:信息增益、增益率、基尼指数、预剪枝和后剪枝、连续值处理、缺失值处理以及多变量决策树等知识。

    1527 人正在学习 去看看 王而川

在这里插入图片描述

滤波器的参数是:中心频率f0,中心频率所对应的放大倍数为H(jf0),品质因数Q,带宽为B
在这里插入图片描述
设计方法,有式(6)可推出R1,R2,R3
在这里插入图片描述
现在上式(6.5)中,只要C1,C2未知,可通过编写程序来解决,python程序如下:

import numpy as np
import scipy
import os

os.system('clear')

pi = 3.14159265358

f0 = 30/60
H = 10
B = 0.31

#f0 = 200/60
#H = 17
#B = 2

Q = f0/B
Re_neg3 = [1, 1.1, 1.2, 1.3, 1.5, 1.6, 1.8, 2.0, 2.2, 2.4, 2.7, 3.0, 3.3, 3.6, 3.9, 4.3, 4.7, 5.1, 5.6, 6.2, 6.8, 7.2, 8.2, 9.1,
           10, 11, 12, 13, 15, 16, 18, 20, 22, 24, 27, 30, 33, 36, 39, 43, 47, 51, 56, 62, 68, 72, 82, 91,
           100, 110, 120, 130, 150, 160, 180, 200, 220, 240, 270, 300]
#, 330, 360, 390, 430, 470, 510, 560, 620, 680, 720, 820, 910
a = lambda x:x*1000
R = [a(x) for x in Re_neg3]

E24 = [1, 1.1, 1.2, 1.3, 1.5, 1.6, 1.8, 2.0, 2.2, 2.4, 2.7, 3.0, 3.3, 3.6, 3.9, 4.3, 4.7, 5.1, 5.6, 6.2, 6.8, 7.5, 8.2, 9.1,
       10, 11, 12, 13, 15, 16, 18, 20, 22, 24, 27, 30, 33, 36, 39, 43, 47, 51, 56, 62, 68, 75, 82, 91,
       100, 110, 120, 130, 150, 160, 180, 200, 220, 240, 270, 300, 330, 360, 390, 430, 470, 510, 560, 620, 680, 750, 820, 910]

E12 = [1.0, 1.2, 1.5, 1.8, 2.2, 2.7, 3.3, 3.9, 4.7, 5.6, 6.8, 8.2,
       10, 12, 15, 18, 22, 27, 33, 39, 47, 56, 68, 82,
       100, 120, 150, 180, 220, 270, 330, 390, 470, 560, 680, 820]

E6 = [0.01, 0.015, 0.022, 0.033, 0.047, 0.068,
      0.1, 0.15, 0.22, 0.33, 0.47, 0.68,
      1.0, 1.5, 2.2, 3.3, 4.7, 6.8,
      10, 15, 22, 33, 47, 68,
      100, 150, 220, 330, 470, 680]

a = lambda x,y: abs(x-y)/y
cr12 = []
offset = 0.05
for i in E6:
    for j in E6:
        C1 = i*1e-6
        C2 = j*1e-6
        R3 = Q*(C1+C2)/(2*pi*f0*C1*C2)
        R1 = R3/((1+C1/C2)*H)
        try:
            R2 = R1/(((2*pi*f0)**2)*C1*C2*R1*R3-1)
        except Exception as e:
            R2 = -1
        else:
            if  min([a(R1,y) for y in R]) < offset and  min([a(R2,y) for y in R]) < offset and  min([a(R3,y) for y in R]) < offset:
                cr12.append([C1*1e6,C2*1e6,R1*1e-3,R2*1e-3,R3*1e-3])

程序解出来的,频率响应为
在这里插入图片描述

为设计方便,通常将电容取值为C1=C2=C,不过不能设计带宽,其对应的参数为
在这里插入图片描述
根据上式可见,电容C的大小并不影响带通滤波器的增益H(jf0)和品质因数Q

电容的选取根据工作频率选择,依靠经验值决定
在这里插入图片描述
由于滤波器的中心频率f0和品质因数Q均与R1,R2的并联值有关,现在分别考虑R1>>R2和R1<<R2时电阻参数的选取

(1)满足R1>>R2(工程上常取R1>=10R2)则式(7)可改为
在这里插入图片描述
利用上式可快速获得元件参数值:
在这里插入图片描述
上式应用的条件是R1>=10R2,即Q>=sqrt(2.5|H(jf0)|),对应于低增益情形。

(2)满足R1<<R2(工程上常取R2>=10R1),则式(7)可改为
在这里插入图片描述
上式成立的条件是|H(jf0)|=2Q^2,此时可简单快速获得元件参数值为
在这里插入图片描述
对应于高增益情形。

参考网址
http://www.doc88.com/p-0661492651351.html
https://www.sohu.com/a/200449574_819258

2017-11-28 21:32:45 qingqingdeaini 阅读数 3628
  • 机器学习之决策树视频教学

    决策树算法是一种机器学习方法,其代表有ID3、CART、C4.5等。本次课程主要讲解了这三种决策树,其中包括:信息增益、增益率、基尼指数、预剪枝和后剪枝、连续值处理、缺失值处理以及多变量决策树等知识。

    1527 人正在学习 去看看 王而川

1 基础知识

[1] 卡尔曼增益最后会变成定值吗?
[2] 如何通俗并尽可能详细解释卡尔曼滤波?
[3] 卡尔曼滤波增益综述报告
[4] Understanding the Basis of the Kalman Filter
[5] 奇异值的物理意义是什么?
[6] 矩阵的奇异值与特征值有什么相似之处与区别之处?
[7] 欧拉角与万向节死锁


2 卡尔曼滤波算法简介

  Kalman Filter是一个高效的递归滤波器,它可以实现从一系列的噪声测量中,估计动态系统的状态。广泛应用于包含Radar、计算机视觉等在内的工程应用领域,在控制理论和控制系统工程中也是一个非常重要的课题。本文介绍了卡尔曼滤波增益的由来,以及它在卡尔曼滤波理论中的作用,着重介绍了卡尔曼滤波增益的理论意义。由卡尔曼滤波增益可以更深入的理解卡尔曼滤波,把它更好地应用于实际中。
  
  1960年卡尔曼发表了用递归方法解决离散数据线性滤波问题的论文A New Approach to Linear Filtering and Prediction Problems,在这篇文章里一种克服了维纳滤波缺点的新方法被提出来,这就是我们今天称之为卡尔曼滤波的方法。卡尔曼滤波应用广泛且功能强大,它可以估计信号的过去和当前状态,甚至在即使并不知道模型的确切性质时,也能估计将来的状态。
  
  其基本思想是以最小均方误差为最佳估计准则,采用利用前一时刻信号与噪声的状态空间模型获取的估计值和当前时刻的观测值来更新对状态变量的估计,求出当前时刻的估计值。算法根据建立的系统方程和观测方程对需要处理的信号做出满足最小均方误差的估计。
  
  对于解决很大部分的问题,它是最优、效率最高甚至是最有用的。它的广泛应用已经超过30年,包括机器人导航、控制、传感器数据融合甚至在军事方面的雷达系统以及导弹追踪等等。近年来更被应用于计算机图像处理,例如头脸识别、图像分割、图像边缘检测等等。


3 卡尔曼滤波直观描述

  Kalman Filter算法运用场景。问题描述:存在两个功能相同但性能不同的传感器,那么应该如何融合两个传感器的测量值。解决办法:加权平均,但是无法很好的确定加权平均参数。卡尔曼滤波算法就是解决该问题的方法。
  
  形式化描述:存在一个传感器和一个对应的模型,如何解决传感器测量值与模型计算值的加权平均融合?假设模型是简化的,即xk+1=f(w1xk+(1w1)x^k),其中xk(s1,s2,...,sn)si是影响模型的状态变量,现假设状态分量受到的不确定因素都服从正态分布。在k时刻,模型估计值为xk,传感器测量值为x^k,Kalman Filter算法能够确定概率最大化下的综合值x¯k=w1xk+(1w1)x^k),即确定w1,同时此时算出的综合值也服从正太分布。定义Kalman增益为x¯k的均值,定义步长Δt=tk+1tk
  
  假设存在2个传感器S1,S2,对应的测量值为x^1,x^2,传感器测量噪音协防差为Σ1,Σ2,1个状态估计模型M(假设状态转移为一步转移),对应的估计值为x,状态转移协防差矩阵为Σ。Kalman Filter算法求解步骤如下:
  
  (1)状态估计模型初始值为x0
  (2)考虑第k步,状态估计模型估计值为xk,测量值为x^1k,x^2k,Kalman增益x¯k为估计值与测量值的融合。针对该问题,需要进行两次融合:传感器测量融合、传感器测量与状态估计模型融合,融合过程中的加权参数由彼此的协防差确定。在融合值概率最大情况下求得Kalman增益,同时融合状态也服从高斯分布。
  (3)进入k+1步,利用状态估计模型求xk+1,即xk+1=f(x¯k)


4 卡尔曼滤波算法

  状态转移方程或离散随机差分方程如下:

xk=An×nxk1+Bnuk1+wk1(1)

  测量方程如下:
zk=Hm×nxk+vk(2)

  随机信号wkvk分别表示过程激励噪声和观测噪声,假设它们为相互独立且是高斯白噪声,即:
p(w)N(0,Q)(3)

p(v)N(0,R)(4)

  实际系统中, 过程激励噪声协方差矩阵 Q 和观测噪声协方差矩阵 R 可 能会随每次迭代计算而变化,但本文假设它们是常数。
  定义:已知第k 步以前状态情况下第k 步的先验状态估计为x¯^k (−代表先验,ˆ代表估计);已知测量变量zk时第k 步的后验状态估计为x^k;由此定义先验估计误差e¯k和后验估计误差ek如下:
e¯k=xkx¯^k(5)

ek=xkx^k(6)

  那么先验估计误差的协方差P¯¯¯k和后验估计的协方差Pk为:
P¯¯¯k=E[e¯ke¯kT](7)

Pk=E[ekekT](8)

  卡尔曼滤波器的表达式:由先验估计P¯¯¯k和加权的测量变量zk及其预测Hxk之差的线性组合构成后验状态估计Pk
x^k=x¯^k+K(zkHx¯^k)(9)

  其中测量变量及其预测之差zkHx¯^k被称为测量过程的革新或残余,残余反映了预测值和实际值之间的不一致程度;矩阵Km×n叫做残余的增益或混合因数,作用是使(8)式中的后验估计误差协方差最小。
  
  在此忽略矩阵K的详细推导,仅给出计算的大致步骤:
  (1)将(9)式代入ek的定义式(6),再将ek代入(8)式,求得后验估计的协方差Pk
  (2)将(8)式中的PkK求导并使其一阶导数为零,从而解得矩阵K的值;矩阵K的一种表示形式如下:
Kk=P¯¯¯kHTHP¯¯¯kHT+R(10)

其中H矩阵为常量,Pk与过程激励噪声的协方差矩阵Q有关;R为测量噪声的协方差矩阵。

5 卡尔曼增益的物理意义

  
  取值范围:Kk[0,H1],即:limR0=H1limP¯k0=0,因此卡尔曼滤波增益是一个决定了最优估计组成比例的“调节器”。
  
  具体地:当R0limR0=H1,那么x^k=x¯^k+H1(zkHx¯^k),则可以看出系统表现为完全取测量值作为状态的后验估计值,而系统的先验状态估计完全被抛弃;反之P¯¯¯k0,那么limP¯k0=0,即:Q=0,则可以看出系统完全抛弃测量值,取先验估计值。

6 卡尔曼增益的理论意义

  被估计值系统的第k+1时刻的状态值xk的卡尔曼滤波值x^k,就是xk的无偏最小方差估计。同时,滤波误差方差矩阵Pk是基于测量值z1,z2,z3等等的xk的所有线性估计中最小的均方误差阵。
  
  对于一维的情况,测量噪声协方差矩阵R增大时,增益矩阵K变小。这表明,如果测量噪声越大,该增益取的越小,以减弱测量噪声对估计值的影响,从而使预测值所占最后的结果比重加大。
  
  由(10)式还可以看出,当P¯¯¯k或者Q矩阵变小时,Pk也变小(此处可以从推导公式中看出,本文省略),k矩阵也减小。从直观上看,这是自然的,因为 变小表示估计值或者预测值比较好,又因为变小表示状态转移随机波动减小。所以新的测量值对状态的估计值的矫正影响减弱,于是增益矩阵K应当变小。

2019-01-09 20:25:36 weixin_43916250 阅读数 3398
  • 机器学习之决策树视频教学

    决策树算法是一种机器学习方法,其代表有ID3、CART、C4.5等。本次课程主要讲解了这三种决策树,其中包括:信息增益、增益率、基尼指数、预剪枝和后剪枝、连续值处理、缺失值处理以及多变量决策树等知识。

    1527 人正在学习 去看看 王而川

本人研一新生,就读于天津,第一次发帖,就把csdn当成自己的学习笔记来记录叭。
这学期开了现代信号处理这门课,大作业是写一篇review,我在学习卡尔曼滤波的过程中,查阅了大部分的博客和论文,发现很多都是介绍了卡尔曼滤波的五个核心公式,执行过程,然后举个栗子附一段代码。然而很少有相关论述说明为什么通过卡尔曼滤波算出来的结果就是最合理的。可能本人理解能力比较差,最开始只知道怎么用,研究了一段时间才明白“为什么”要这么用。
我觉得上面五个核心公式的实际意义以及每一次迭代的物理含义还是比较好理解的,其中最难理解的地方应该是增益系数K,小白在第一接触的时候,第一反应是为什么写成这个样子?为什么由K推导出的后验方差P(k|k)和后验状态X(k|k)就是合理的?

要理解这个首先需要理解卡尔曼滤波的物理意义,说的直白一些,卡尔曼滤波就是在测量结果和经验推测俩个都不准确的结论下找到则中的,最有可能接近真实值的过程。
虽然卡尔曼滤波不要求信号和噪声都是平稳过程这一假设条件,但是在使用此方法时默认测量噪声和经验估计噪声均为白噪声,即俩种获得值的方法都为高斯分布。计算增益系数K实际上就是高斯分布求积的过程。
对于俩个高斯分布:
在这里插入图片描述

他们的乘积为:
在这里插入图片描述
这个式子也是一个高斯分布,其分布的中心为:

在这里插入图片描述

分布方差为:
在这里插入图片描述
相关的推导过程百度资料有很多。对应到一元卡尔曼滤波中的增益系数K为:
在这里插入图片描述
同理多元正态分布中增益矩阵K为:

在这里插入图片描述
这里的K是根据多元正态分布乘积的形式推导而来的,对比卡尔曼滤波中的核心公式:
在这里插入图片描述
可以看出第一个式子可以理解为测量高斯分布以及经验估计高斯分布乘积的K值,第二个式子,k时刻下的后验估计和第三个式子P的后验估计相当于俩个高斯分布乘积后的新的均值和方差。而卡尔曼滤波则可以理解为此刻高斯分布乘积后的分布,与下一时刻的测量结果的高斯分布继续乘积,以这种方式估算每一个时刻下的真实值。这么理解也可以理解为什么卡尔曼滤波非常节约工作内存,因为每一个时刻的测量值都通过乘积被记录在下一时刻的后验估计值之中,也就是说,虽然某一时刻的后验估计看起来只是由前一时刻的后验估计和当前的测试值乘积得到的概率最大值,但其实通过不停地乘积和迭代这当前时刻的后验估计值已经包含了之前所有测量值所提供的参考信息的。想必这也就是卡尔曼的强大之处吧。

第一次写博客,权当学习记录,记录一下研究生期间学习过程中遇到的有意义的事情。小白一枚,哪里有写错的地方求告知,我会赶紧改正。

希望路过这儿的你可以关注我一下~~我会定期更新一系列阅读笔记和总结,加入自己的见解和思路,希望能对你有用~

没有更多推荐了,返回首页