图像处理 矩阵特征值

2017-10-24 11:56:42 chunmi6974 阅读数 4027
  • (二)矩阵基本运算

    本课程由专业数学系老师讲解,从数学背景和现实应用中讲解线性代数的相关知识,摆脱传统...使听众能够了解矩阵和空间的概念、性质。深刻理解矩阵各类运算、分解的数学意义和应用,为后续的机器学习打下扎实的数学基础。

    825人学习 AI100讲师
    免费试看

原文:http://wenku.baidu.com/view/b29d9148852458fb770b564a.html#

摘要:正所谓学以致用,在长期以来的学习过程中,我们真正能够将所学到的知识运用到生活中的能有多少,我们对课本上那些枯燥的公式虽牢记于心,却不知道它的实际用途。在学习了矩阵论以来,虽然知道很多问题的求法,就如矩阵特征值和特征向量,它们有何意义我们却一点不知。我想纯粹的理知识已经吸引不了我们了,我们需要去知道它们的用途,下面就让我们一起来看看矩阵特征值与特征向量在图像处理中是如何发挥它们的作用的。

关键字:

特征值、特征向量、 图像、
正文:
生活中的我们,每天清晨醒来,随之映入眼帘的就是各种形形色色的图像,我们确实也很难想象,在我们的生活中,图像的处理和矩阵特征值、特征向量有什么关系?首相我们先来了解下,何为特征值、特征向量。

定义: 设 是 阶方阵,若有数 和非零向量 ,使得

称数 是 的特征值,非零向量 是 对应于特征值 的特征向量。

例如 对 ,有 及向量 ,使得 ,这说明 是 的特征值, 是 对应于 的特征向量。

特征值和特征向量的求法:

1. 由 得 ,并且由于 是非零向量,故行列式 ,即

(称之为 的特征方程)

由此可解出 个根 (在复数范围内),这就是 的所有特征值。

2. 根据某个特征值 ,由线性方程组 解出非零解 ,这就是 对应于特征值 的特征向量。

特征值和特征向量的性质:

1 . ,

2 .若 是 的特征向量,则对 , 也是 的特征向量。

3 .若 是 的特征值,则 是 的特征值,从而 是 的特征值。

4 . 是 的 个特征值, 为依次对应的特征向量,若 各不相同,则 线性无关。 
    我想在了解了特征值和特征向量的基本理论之后,你们很难想象,为什么这些知识会和图像有联系吧。说实话,我自己也不是很清楚,我也是看了别人的理论讲解,才略微理解了一二。让我们一起去了解下。
    根据特征向量数学公式定义,矩阵乘以一个向量的结果仍是同维数的一个向量,因此,矩阵乘法对应了一个变换,把一个向量变成同维数的另一个向量,那么变换的效果是什么呢?这当然与方阵的构造有密切关系,比如可以取适当的二维方阵,使得这个变换的效果就是将平面上的二维向量逆时针旋转30度,这时我们可以问一个问题,有没有向量在这个变换下不改变方向呢?可以想一下,除了零向量,没有其他向量可以在平面上旋转30度而不改变方向的,所以这个变换对应的矩阵(或者说这个变换自身)没有特征向量(注意:特征向量不能是零向量),所以一个特定的变换特征向量是这样一种向量,它经过这种特定的变换后保持方向不变,只是进行长度上的伸缩而已(再想想特征向量的原始定义Ax=cx, cx是方阵A对向量x进行变换后的结果,但显然cx和x的方向相同)。
    这里给出一个特征向量的简单例子,比如平面上的一个变换,把一个向量关于横轴做镜像对称变换,即保持一个向量的横坐标不变,但纵坐标取相反数,把这个变换表示为矩阵就是[1 0;0 -1](分号表示换行),显然[1 0;0 -1]*[a b]'=[a -b]'(上标'表示取转置),这正是我们想要的效果,那么现在可以猜一下了,这个矩阵的特征向量是什么?想想什么向量在这个变换下保持方向不变,显然,横轴上的向量在这个变换下保持方向不变(记住这个变换是镜像对称变换,那镜子表面上(横轴上)的向量当然不会变化),所以可以直接猜测其特征向量是[a 0]'(a不为0),还有其他的吗?有,那就是纵轴上的向量,这时经过变换后,其方向反向,但仍在同一条轴上,所以也被认为是方向没有变化,所以[0 b]'(b不为0)也是其特征向量。
    综上所述,特征值只不过反映了特征向量在变换时的伸缩倍数而已,对一个变换而言,特征向量指明的方向才是很重要的,特征值似乎不是那么重要;但是,当我们引用了Spectral theorem(谱定律)的时候,情况就不一样了。
    Spectral theorem的核心内容如下:一个线性变换(用矩阵乘法表示)可表示为它的所有的特征向量的一个线性组合,其中的线性系数就是每一个向量对应的特征值,写成公式就是:
   我们知道,一个变换可由一个矩阵乘法表示,那么一个空间坐标系也可视作一个矩阵,而这个坐标系就可由这个矩阵的所有特征向量表示,用图来表示的话,可以想象就是一个空间张开的各个坐标角度,这一组向量可以完全表示一个矩阵表示的空间的“特征”,而他们的特征值就表示了各个角度上的能量(可以想象成从各个角度上伸出的长短,越长的轴就越可以代表这个空间,它的“特征”就越强,或者说显性,而短轴自然就成了隐性特征),因此,通过特征向量/值可以完全描述某一几何空间这一特点,使得特征向量与特征值在几何(特别是空间几何)及其应用中得以发挥。
矩阵论在图像中的应用比如有PCA方法,选取特征值最高的k个特征向量来表示一个矩阵,从而达到降维分析+特征显示的方法。一般而言,这一方法的目的是寻找任意统计分布的数据集合之主要分量的子集。相应的基向量组满足正交性且由它定义的子空间最优地考虑了数据的相关性。将原始数据集合变换到主分量空间使单一数据样本的互相关性降低到最低点。一下是其运用的原理:
 

设是N维向量的数据集合,m是其均值向量:


    有了特征向量集合,任何数据x可以投影到特征空间(以特征向量为基向量)中的表示:


   

 

 

相反地,任何数据x可以表示成如下的线性组合形式:


如果用A代表以特征向量为列向量构成的矩阵,则AT定义了一个线性变换:



上述去相关的主分量分析方法可以用于降低数据的维数。通过略去对应于若干较小特征值的特征向量来给y降维。例如,丢弃底下N-M行得到的矩阵B,并为简单起见假定均值m=0,则有:

 

它只是被舍弃的特征向量所对应的特征值的和。通常,特征值幅度差别很大,忽略一些较小的值不会引起很大的误差。

    上述方法是图象数据压缩的数学基础之一,通常被称为PrincipalComponent Analysis (PCA)Karhunen-Loeve (K-L)变换

    K-L变换的核心过程是计算特征值和特征向量,有很多不同的数值计算方法。一种常采用的方法是根据如下的推导:

 

 


                 

由于通常s<<N,这种方法将求高阶矩阵的特征向量转化为求较低阶矩阵的特征向量的过程在图象数据分析中是很实用的。

   K-L变换是图象分析与模式识别中的重要工具,用于特征抽取,降低特征数据的维数。例如,MIT-Media Lab基于特征脸的人脸识别方法。

   通过上述的理论,我们对特征值与特征向量在图像处理上的运用有了深入的了解,同时也感受到了知识的魅力在不停的渲染着我们的生活。当然,特征值的魅力还不仅在于图像处理上,它在物理,材料,力学等方面都能一展拳脚,有人曾在一本线代书里这样说过“有振动的地方就有特征值和特征向量”。同时让我对平时未能把握住的知识感到惋惜,因为知识对生活的改造实在是缤纷乐,所以现在的我们,首要任务还是学好知识,让知识去创造财富!

参考(基于特征向量的变换)

2017-10-24 12:09:45 chunmi6974 阅读数 7809
  • (二)矩阵基本运算

    本课程由专业数学系老师讲解,从数学背景和现实应用中讲解线性代数的相关知识,摆脱传统...使听众能够了解矩阵和空间的概念、性质。深刻理解矩阵各类运算、分解的数学意义和应用,为后续的机器学习打下扎实的数学基础。

    825人学习 AI100讲师
    免费试看

图像处理之特征值和特征向量的意义

2446人阅读 评论(0) 收藏 举报
分类:

注:以下为个人学习笔记、知识整理

1.特征值

从线性变换入手,把一个矩阵当作一个线性变换在某一组基下的矩阵,而最简单的线性变换就是数乘变换。

特征值的意义就是:目的就是看看一个线性变换对一些非零向量的作用是否能够相当于一个数乘变换,特征值就是这个数乘变换的变换比。

特征值得简单理解就是:输入x到系统A中,输出得到的是输出x的landa倍。

2.特征向量

公式当中的x就是特征向量。

我们更关心的是把原先的线性空间(如A)分解成一些和特征向量相关的子空间的直和。

这样我们的研究就可以分别限定在这些子空间上来进行,这和物理中在研究运动的时候将运动分解成水平方向和垂直方向的做法是一个道理!

 特征值是针对方阵而言的。

3.特征值和特征向量在图像处理的含义

我们知道,一个变换可由一个矩阵乘法表示,那么一个空间坐标系也可视作一个矩阵,而这个坐标系就可由这个矩阵的所有特征向量表示,用图来表示的话,可以想象就是一个空间张开的各个坐标角度,这一组向量可以完全表示一个矩阵表示的空间的“特征”,而他们的特征值就表示了各个角度上的能量(可以想象成从各个角度上伸出的长短,越长的轴就越可以代表这个空间,它的“特征”就越强,或者说显性,而短轴自然就成了隐性特征),因此,通过特征向量/值可以完全描述某一几何空间这一特点,使得特征向量与特征值在几何(特别是空间几何)及其应用中得以发挥。

4.矩阵论之图像处理

矩阵论在图像中的应用比如有PCA( Principal Component Analysis)主成分析方法,选取特征值最高的k个特征向量来表示一个矩阵,从而达到降维分析+特征显示的方法。一般而言,这一方法的目的是寻找任意统计分布的数据集合之主要分量的子集。相应的基向量组满足正交性且由它定义的子空间最优地考虑了数据的相关性。将原始数据集合变换到主分量空间使单一数据样本的互相关性降低到最低点。

5.PCA例子说明

      对于一个k维的feature来说,相当于它的每一维feature与其他维都是正交的(相当于在多维坐标系中,坐标轴都是垂直的),那么我们可以变化这些维的坐标系,从而使这个feature在某些维上方差大,而在某些维上方差很小。例如,一个45度倾斜的椭圆,在第一坐标系,如果按照x,y坐标来投影,这些点的x和y的属性很难用于区分他们,因为他们在x,y轴上坐标变化的方差都差不多,我们无法根据这个点的某个x属性来判断这个点是哪个,而如果将坐标轴旋转,以椭圆长轴为x轴,则椭圆在长轴上的分布比较长,方差大,而在短轴上的分布短,方差小,所以可以考虑只保留这些点的长轴属性,来区分椭圆上的点,这样,区分性比x,y轴的方法要好!

所以我们的做法就是求得一个k维特征的投影矩阵,这个投影矩阵可以将feature从高维降到低维。投影矩阵也可以叫做变换矩阵。新的低维特征必须每个维都正交,特征向量都是正交的。通过求样本矩阵的协方差矩阵,然后求出协方差矩阵的特征向量,这些特征向量就可以构成这个投影矩阵了。特征向量的选择取决于协方差矩阵的特征值的大小。

举一个例子:

对于一个训练集,100个sample,特征是10维,那么它可以建立一个100*10的矩阵,作为样本。求这个样本的协方差矩阵,得到一个10*10的协方差矩阵(解释在第6),然后求出这个协方差矩阵的特征值和特征向量,应该有10个特征值和特征向量,我们根据特征值的大小,取前四个特征值所对应的特征向量,构成一个10*4的矩阵,这个矩阵就是我们要求的特征矩阵,100*10的样本矩阵乘以这个10*4的特征矩阵,就得到了一个100*4的新的降维之后的样本矩阵,每个sample的维数下降了。

当给定一个测试的特征集之后,比如1*10维的特征,乘以上面得到的10*4的特征矩阵,便可以得到一个1*4的特征,用这个特征去分类。

所以做PCA实际上是求得这个投影矩阵,用高维的特征乘以这个投影矩阵,便可以将高维特征的维数下降到指定的维数。

6.协方差矩阵

	定义是变量向量减去均值向量,然后乘以变量向量减去均值向量的转置再求均值。例如x是变量,μ是均值,协方差矩阵等于E[(x-μ)(x-μ)^t],物理意义是这样的,例如x=(x1,x2,...,xi)那么协方差矩阵的第m行n列的数为xm与xn的协方差,若m=n,则是xn的方差。如果x的元素之间是独立的,那么协方差矩阵只有对角线是有值,因为x独立的话对于m≠n的情况xm与xn的协方差为0。另外协方差矩阵是对称的。
一般多变量分布的时候(例如多元高斯分布)会用到协方差矩阵,工程上协方差矩阵也用来分析非确定性平稳信号的性质以及定义非确定性向量的距离(马哈拉诺比斯范数)。



1
0

2017-02-17 11:23:01 lwzkiller 阅读数 26986
  • (二)矩阵基本运算

    本课程由专业数学系老师讲解,从数学背景和现实应用中讲解线性代数的相关知识,摆脱传统...使听众能够了解矩阵和空间的概念、性质。深刻理解矩阵各类运算、分解的数学意义和应用,为后续的机器学习打下扎实的数学基础。

    825人学习 AI100讲师
    免费试看

Hessian Matrix,它有着广泛的应用,如在牛顿方法、求极值以及边缘检测、消除边缘响应等方面的应用。一个Hessian Matrix涉及到很多数学相关的知识点,比如泰勒公式、极值判断、矩阵特征值及特征向量、二次型等。本篇文章,主要说明多元情况下的极值判定、hessian矩阵与二次型的联系以及有关hessian matrix在图像上的应用。

1. 二元函数泰勒公式

对于一元函数的泰勒公式,大家都有所了解,其意义是使用多次多项式来近似表达原函数f(x),一元函数的f(x)的泰勒公式如下:


在实际应用中,我们一般取前面几阶多项式的和来近似表达原函数f(x)。

然而,在图像处理中,我们应用的都是二元函数f(x,y),下面着重讲解下二元函数的泰勒公式:

如果在点的某一邻域内连续且有到n+1阶的连续偏导数,为此邻域的任意一点,则有


其中记号表示

表示

通用记号表示

人生苦短,关于这些公式这里就不证明了,大家可以参考相关数学资料进行证明。


2. 极值判断

如果对于函数中某一点其一阶导数为0,二阶导数不为0,那么该点必定为极值点。再进一步分析,如果二阶导数大于0,那么该点为极小值点,如果二阶导数小于0,那么该点为极大值点。关于这些性质的描述,最直观方法就是自己画图进行理解。另外可以通过表达式给予一些直观理解(省略后面的多阶余项),虽然表达式并非严格,比如,对于一元函数进行泰勒公式展开并认定完全相等:

针对凸函数,如果在x0处的一阶为0,二阶为正,那么我们就可以断定f(x)肯定比在x0处的函数值大,我们可以认为x0为极小值点。对于图像中的二元函数呢?我们是可以类推的。根据上述二元泰勒公式可得二阶近似表达式:

,对于二元函数极值情形,我们可以根据二阶表达式的正负进行判定。

对于这种情形,这里面会涉及到Hessian矩阵正定以及负定的判断,这里令,如果对于任意向量,都有为正,那么有最小值,且H为正定的。如果对于任意向量,都有非负,那么有最大值,且H为负定的。


3. 二次型的性质

可以发现上面矩阵H即为Hessian矩阵,具有对称性。而二次型的矩阵也是对称的,接下来主要介绍下二次型最优化,以一个具体例子进行说明。

最小化二次型函数,其中A是实对称二阶矩阵,即是hessian矩阵,,对于该问题的优化很简单,最终该问题的结果与矩阵A的特征值相关。我们可以绘制二次型函数以及对应的等高线如下:


并且我们求得矩阵A的特征向量[-0.7071,0.7071],[0.7071,0.7071]对应的特征值分别为0.5,1.5

我们可以知道等高线越密集的地方,说明函数值变化较快,而这个函数变化最快的方向即是特征向量[0.7071,0.7071]所对应的方向;等高线越稀疏的地方,说明函数值变化较慢,而变化最慢的方向即是特征向量[-0.7071,0.7071]所对应的方向,并且可以观察矩阵特征值的大小与函数值变化程度有关,较大特征值所对应的特征向量方向上的函数值变化最快,较小特征值所对应的特征向量方向上的函数值变化最慢。

这里描述二次型的目的就是讲解Hessian矩阵的特征值以及特征向量与二次型函数值变化之间的关系。其中二次型函数的二阶偏导就构成了Hessian矩阵,也即是A矩阵。

4. 边缘检测以及边缘响应消除

既然检测到的对应点确认为边缘点,那么我们就有理由消除这个边缘点,所以边缘检测与边缘响应消除的应用是一回事。边缘到底有什么特征呢?如下图所示,一个二维平面上的一条直线,图像的特征具体可以描述为:沿着直线方向,亮度变化极小,垂直于直线方向,亮度由暗变亮,再由亮变暗,沿着这个方向,亮度变化很大。我们可以将边缘图像分布特征与二次型函数图形进行类比,是不是发现很相似,我们可以找到两个方向,一个方向图像梯度变化最慢,另一个方向图像梯度变化最快。那么图像中的边缘特征就与二次型函数的图像对应起来了,其实二次型函数中的hessian矩阵,也是通过对二次型函数进行二阶偏导得到的(可以自己求偏导测试下),这就是我们为什么可以使用hessian矩阵来对边缘进行检测以及进行边缘响应消除,我想大家应该明白其中的缘由了。还是那句话,数学模型其实就是一种反映图像特征的模型。



所以Hessian matrix实际上就是多变量情形下的二阶导数,他描述了各方向上灰度梯度变化,这句话应该很好理解了吧。我们在使用对应点的hessian矩阵求取的特征向量以及对应的特征值,较大特征值所对应的特征向量是垂直于直线的,较小特征值对应的特征向量是沿着直线方向的。对于SIFT算法中的边缘响应的消除可以根据hessian矩阵进行判定。

关于hessian的应用基本讲完了,有问题可以留言讨论。




参考文献:

1.https://www.zhihu.com/question/40181086

2.https://zh.wikipedia.org/wiki/%E6%B5%B7%E6%A3%AE%E7%9F%A9%E9%98%B5

3.http://www.zhihujingxuan.com/18143.html

4.http://blog.sina.cn/dpool/blog/s/blog_5d2990b70101c1pc.html

5.http://blog.sina.com.cn/s/blog_790bb71901015087.html

6.http://painterlin.com/2015/09/12/Intuition-of-Eigen-Value.html

2018-11-20 17:28:29 kellyroslyn 阅读数 738
  • (二)矩阵基本运算

    本课程由专业数学系老师讲解,从数学背景和现实应用中讲解线性代数的相关知识,摆脱传统...使听众能够了解矩阵和空间的概念、性质。深刻理解矩阵各类运算、分解的数学意义和应用,为后续的机器学习打下扎实的数学基础。

    825人学习 AI100讲师
    免费试看

转自http://www.cnblogs.com/isabelincoln/archive/2009/06/18/1504623.html


特征向量与特征值

在看线性代数这一部分的时候,真是一头雾水。虽然明白了特征值和特征向量的求法,但总觉得没有用。在《理解矩阵》一文中,虽然提到了这与矩阵的本质有关,但并未详细提及,但我知道了一定具有一定的几何意义。

后来,查看了《特征向量的几何意义》一文,才明白了。特别是wikipedia中关于《特征向量》的文章,终于对特征向量有了一点认识。

      

因为l是常数,所以lx与x的方向相同。即,一个变换的特征向量是这样一种向量,它经过这种特定的变换后保持方向不变,只是进行长度上的伸缩而已。

下图是从wikipedia的《特征向量》一文中引用的。通过这个图可以对变与不变有一个进一步的了解。

图1. 在这个错切变换中,蒙娜丽莎的图像被变形,但是中心的纵轴在变换下保持不变。(注意:角落在右边的图像中被裁掉了。)蓝色的向量,从胸部到肩膀,其方向改变了,但是红色的向量,从胸部到下巴,其方向不变。因此红色向量是该变换的一个特征向量,而蓝色的不是。因为红色向量既没有被拉伸又没有被压缩,其特征值为1。所有沿着垂直线的向量也都是特征向量,它们的特征值相等。它们构成这个特征值的特征空间
 
在wikipedia的《特征向量》一文中还提到了一个地球旋转的例子,旋转本身是一种线性变化,出来在旋转轴上的向量之外,所有从地心指向地表的向量的方向都变了。在旋转轴上的向量的向量就是这个线性变化的特征向量。
 
说到这我想很多人应该明白了,矩阵是一种线性变化,特征向量就是在这个变化当中不变的向量。说白了就是在变化当中寻找不变的东西。这不就是很多学科研究的内容吗?
 
关于这个主题的更多内容可以参考《漫谈高数(四) 特征向量物理意义》一文,该文对这个主题做了一个深入浅出的解释,是一篇比较好的文章。
2017-02-23 15:21:26 u013898698 阅读数 1126
  • (二)矩阵基本运算

    本课程由专业数学系老师讲解,从数学背景和现实应用中讲解线性代数的相关知识,摆脱传统...使听众能够了解矩阵和空间的概念、性质。深刻理解矩阵各类运算、分解的数学意义和应用,为后续的机器学习打下扎实的数学基础。

    825人学习 AI100讲师
    免费试看

第十一章基于特征向量的变换

目录

1.    主分量分析(PCA)、K-L变换(Hotelling变换)

2.    奇异值分解(SVD)

3.    DCT与K-L变换的关系


 1. 主分量分析(PCA)、K-L变换(Hotelling变换)

   一般而言,这一方法的目的是寻找任意统计分布的数据集合之主要分量的子集。相应的基向量组满足正交性且由它定义的子空间最优地考虑了数据的相关性。将原始数据集合变换到主分量空间使单一数据样本的互相关性(cross-correlation)降低到最低点。

    设是N维向量的数据集合,m是其均值向量:

 
 

 

 
 

   

    有了特征向量集合,任何数据x可以投影到特征空间(以特征向量为基向量)中的表示:

 
 

 

相反地,任何数据x可以表示成如下的线性组合形式:

 
 

 

    如果用A代表以特征向量为列向量构成的矩阵,则AT定义了一个线性变换:

 
 

 

上述去相关的主分量分析方法可以用于降低数据的维数。通过略去对应于若干较小特征值的特征向量来给y降维。例如,丢弃底下N-M行得到的矩阵B,并为简单起见假定均值m=0,则有:

 
 

 

它只是被舍弃的特征向量所对应的特征值的和。通常,特征值幅度差别很大,忽略一些较小的值不会引起很大的误差。

    上述方法是图象数据压缩的数学基础之一,通常被称为PrincipalComponent Analysis (PCA)Karhunen-Loeve (K-L)变换

    K-L变换的核心过程是计算特征值和特征向量,有很多不同的数值计算方法。一种常采用的方法是根据如下的推导:

 
 

 

由于通常s<<N,这种方法将求高阶矩阵的特征向量转化为求较低阶矩阵的特征向量的过程在图象数据分析中是很实用的。

 K-L变换是图象分析与模式识别中的重要工具,用于特征抽取,降低特征数据的维数。例如,MIT-Media Lab基于特征脸的人脸识别方法。http://www-white.media.mit.edu/vismod/demos/facerec/

(以上图片来自于MIT-Media Lab Photobook/Eigenfaces Demo)

2. 奇异值分解(SVD)

    奇异值分解(SingularValue Decomposition)是矩阵分析中正规矩阵酉对角化的推广。设矩阵A是的秩为r,它的奇异值是指n阶方阵AHA(或m阶方阵AAH)的正特征值的平方根 (AH是A的共轭转置)。奇异值分解是指如下形式的分解:

 
 

 

    对于图象数据而言,任意一个的矩阵A定义的奇异值变换为:

 
 

 

3. DCT与K-L变换的关系

马尔可夫(Markov)过程 一个静态随机序列称为一阶Markov序列,如果序列中每个元素的条件概率只依赖于它的前一个元素。一个的Markov序列的协方差矩阵具有以下形式:

其中,相邻两元素之间的相关系数:

这个协方差矩阵的特征值和特征向量(K-L变换正交矩阵的元素)为:

在ρ趋近1时有

与DCT变换相同。

    对于自然景物,通常有。这时DCT的基向量可以很好地近似K-L变换的基向量。由于这个原因,在图象压缩算法中常被用来代替K-L变换,如JPEG算法。尽管DCT在降低谱的相关性方面不如K-L变换有效,但是其好处是它的基函数是固定的,而K-L变换的基函数取决于待变换图象的协方差矩阵。

其它参考文献:

  1. Markus Grob, Visual Computing---The Integration of Computer Graphics, Visual Perception and Imaging, Springer-Verlag, 1994.
  2. 余鄂西,矩阵论,高等教育出版社,1995。

作业

  1. 推导K-L变换前后的协方差矩阵之间的关系:

 
 

 

  1. 阅读有关人脸识别中的PCA方法资料。

返回主目录 返回本章目录

清华大学计算机系 艾海舟

最近修改时间:2001年7月18日

出处:http://media.cs.tsinghua.edu.cn/~ahz/digitalimageprocess/CourseImageProcess.html