精华内容
下载资源
问答
  • 矩阵特征和特征向量

    千次阅读 2017-02-14 11:07:37
    设 A 是n阶方阵,如果存在数m和非零n维列向量 x,使得 Ax=mx 成立,则称 m 是A的一个特征(characteristic value)或本征(eigenvalue)。非零n维列向量x称为矩阵A属于(对应于)特征m特征向量或本征向量,...

    特征值是线性代数中的一个重要概念。在数学、物理学、化学、计算机等领域有着广泛的应用。

    设 A 是n阶方阵,如果存在数m和非零n维列向量 x,使得 Ax=mx 成立,则称 m 是A的一个特征值(characteristic value)或本征值(eigenvalue)。非零n维列向量x称为矩阵A的属于(对应于)特征值m的特征向量或本征向量,简称A的特征向量或A的本征向量。


    1. 求矩阵特征值的方法

    Ax=mx,等价于求m,使得(mE-A)x=0,其中E是单位矩阵,0为零矩阵。
    |mE-A|=0,求得的m值即为A的特征值。|mE-A| 是一个n次多项式,它的全部根就是n阶方阵A的全部特征值,这些根有可能相重复,也有可能是复数。
    如果n阶矩阵A的全部特征值为m1 m2 ... mn,则|A|=m1*m2*...*mn
    同时矩阵A的迹是特征值之和:tr(A)=m1+m2+m3+…+mn[1] 
    如果n阶矩阵A满足矩阵多项式方程g(A)=0, 则矩阵A的特征值m一定满足条件g(m)=0;特征值m可以通过解方程g(m)=0求得。

    另一种解法:



    2. 意义

    我们知道,矩阵乘法对应了一个变换,是把任意一个向量变成另一个方向或长度都大多不同的新向量。在这个变换的过程中,原向量主要发生旋转、伸缩的变化。如果矩阵对某一个向量或某些向量只发生伸缩变换,不对这些向量产生旋转的效果,那么这些向量就称为这个矩阵的特征向量,伸缩的比例就是特征值。


    实际上,上述的一段话既讲了矩阵变换特征值及特征向量的几何意义(图形变换)也讲了其物理含义。物理的含义就是运动的图景:特征向量在一个矩阵的作用下作伸缩运动,伸缩的幅度由特征值确定。特征值大于1,所有属于此特征值的特征向量身形暴长;特征值大于0小于1,特征向量身形猛缩;特征值小于0,特征向量缩过了界,反方向到0点那边去了。

    关于特征值和特征向量,这里请注意两个亮点。这两个亮点一个是线性不变量的含义,二个是振动的谱含义。


    特征向量是线性不变量


    所谓特征向量概念的亮点之一是不变量,这里叫线性不变量。因为我们常讲,线性变换啊线性变换,不就是把一根线(向量)变成另一根线(向量),线的变化的地方大多是方向和长度一块变。而一种名叫“特征向量”的向量特殊,在矩阵作用下不变方向只变长度。不变方向的特性就被称为线性不变量。
    如果有读者坚持认为负方向的特征向量就是改变了向量的方向的想法的话,你不妨这样看线性不变量:特征向量的不变性是他们变成了与其自身共线的向量,他们所在的直线在线性变换下保持不变;特征向量和他的变换后的向量们在同一根直线上,变换后的向量们或伸长或缩短,或反向伸长或反向缩短,甚至变成零向量(特征值为零时),如下图。


     (补正:有网友说不变量实际是特征空间的不变性,特征值再怎么变也不会离开特征空间,这个说法应是正解,因为这同时解释了复数矩阵,大赞。2016.12.25)


      
    特征值是振动的谱


    除了线性不变量,另外一个亮点是关于振动方面的。戏说在朝代宋的时候,我国就与发现矩阵特征值理论的机会擦肩而过。话说没有出息的秦少游在往池塘里扔了一颗小石头后,刚得到一句“投石冲开水底天”的泡妞诗对之后,就猴急猴急地去洞房了,全然没有想到水波中隐含着矩阵的特征值及特征向量的科学大道理。大概地说,水面附近的任一点水珠在原处上下振动(实际上在做近似圆周运动),并没有随着波浪向外圈移动,同时这些上下振动的水珠的幅度在渐渐变小,直至趋于平静。在由某块有着特定质量和形状的石头被以某种角度和速度投入某个面积和深度特定的水池中所决定的某个矩阵中,纹波荡漾中水珠的渐变过程中其特征值起着决定性的作用,它决定着水珠振动的频率和幅度减弱的衰退率。


    在理解关于振动的特征值和特征向量的过程中,需要加入复向量和复矩阵的概念,因为在实际应用中,实向量和实矩阵是干不了多少事的。机械振动和电振动有频谱,振动的某个频率具有某个幅度;那么矩阵也有矩阵的谱,矩阵的谱就是矩阵特征值的概念,是矩阵所固有的特性,所有的特征值形成了矩阵的一个频谱,每个特征值是矩阵的一个“谐振频点”。


    美国数学家斯特让(G..Strang)在其经典教材《线性代数及其应用》中这样介绍了特征值作为频率的物理意义,他说:


    大概最简单的例子(我从不相信其真实性,虽然据说1831年有一桥梁毁于此因)是一对士兵通过桥梁的例子。传统上,他们要停止齐步前进而要散步通过。这个理由是因为他们可能以等于桥的特征值之一的频率齐步行进,从而将发生共振。就像孩子的秋千那样,你一旦注意到一个秋千的频率,和此频率相配,你就使频率荡得更高。一个工程师总是试图使他的桥梁或他的火箭的自然频率远离风的频率或液体燃料的频率;而在另一种极端情况,一个证券经纪人则尽毕生精力于努力到达市场的自然频率线。特征值是几乎任何一个动力系统的最重要的特征。


    其实,这个矩阵之所以能形成“频率的谱”,就是因为矩阵在特征向量所指的方向上具有对向量产生恒定的变换作用:增强(或减弱)特征向量的作用。进一步的,如果矩阵持续地叠代作用于向量,那么特征向量的就会凸现出来。


    比如,一个物理系统,其特性可以被一个矩阵所描述,那么这个系统的物理特性就可以被这个矩阵的特征值所决定,各种不同的信号(向量)进入这个系统中后,系统输出的信号(向量)就会发生相位滞后、放大、缩小等各种纷乱的变化。但只有特征信号(特征向量)被稳定的发生放大(或缩小)的变化。如果把系统的输出端口接入输入端口,那么只有特征信号(特征向量)第二次被放大(或缩小)了,其他的信号如滞后的可能滞后也可能超前同时缩小,放大的可能被继续放大也可能被缩小同时滞后,缩小的可能被继续缩小也可能被放大同时滞后等。经过N次的循环后,显然,乱七八糟的大量的向量群众们终不能成气候,只有特征向量们,心往一处想,劲往一处使,要么成功出人头地,要么失败杀身成仁。因此我们就可以因此在时间域上观察输出,就会得到一个或几个超级明显的特征信号出来(特征向量)。


    源程序可参考:

    http://blog.csdn.net/zhangchao3322218/article/details/7412686


    1. C++标准模板库从入门到精通 

    2.跟老菜鸟学C++

    3. 跟老菜鸟学python

    4. 在VC2015里学会使用tinyxml库

    5. 在Windows下SVN的版本管理与实战 

     http://edu.csdn.net/course/detail/2579

    6.Visual Studio 2015开发C++程序的基本使用 

    http://edu.csdn.net/course/detail/2570

    7.在VC2015里使用protobuf协议

    8.在VC2015里学会使用MySQL数据库


    展开全文
  • 特征与特征向量

    2016-10-19 18:17:44
    特征和特征向量的意义@(线性代数)线性变换与矩阵的特征向量特征线性变换是指个n维列向量被左乘个n阶矩阵后得到另个n维列向量,它是同维向量空间中的把个向量线性映射成了另个向量。即 y=Ax(y,x∈Rn,A...

    特征值和特征向量的意义

    如果用一个关键词来总结这个部分,这个词是:线性变换
    再引申一些是,用矩阵表达线性变换。

    线性变换与矩阵的特征向量特征值

    线性变换是指一个n维列向量左乘一个n阶矩阵后得到另一个n维列向量,它是同维向量空间中的把一个向量线性映射成了另一个向量。即 y=Ax(yxRn,A=(aij)nxn)
    如果对于数λ,存在一个n维零列向量x(xRnx0),使得Ax=λx则称数λ为矩阵A的一个特征值x为矩阵A对应于λ的特征向量。 在线性代数中研究线性变换就是研究相应的矩阵A,矩阵A的特征向量和特征值线性变换研究的重要内容。

    所以问题的根子还是在于研究线性变换。

    在数学上的意义

    矩阵乘法对应了一个变换,是把任意一个向量变成另一个方向或长度都大多不同的新向量。在这个变换的过程中, 原向量主要发生旋转、伸缩的变化。 如果矩阵对某一个向量或某些向量只发生伸缩变换,不对这些向量产生旋转的效果,那么这些向量就称为这个矩阵的特征向量伸缩的比例就是特征值。这里可以将特征值为负,特征向量旋转180度,也可看成方向不变,伸缩比为负值。所以特征向量也叫线性不变量。特征向量的不变性是他们变成了与其自身共线的向量,他们所在的直线在线性变换下保持不变;特征向量和他的变换后的向量们在同一根直线上,变换后的向量们或伸长或缩短,或反向伸长或反向缩短,甚至变成零向量(特征值 为零时)。
    对称矩阵而言,可以求得的特征向量是正交的,就是把矩阵A所代表的空间,进行正交分解,使得A的向量集合可以表示为每个向量a在各个特征向量上面的投影长度。

    因此,真正把握研究特征向量与特征值的根本意义要比只记住Ax=λx要重要且有意义得多。

    展开全文
  • 对于n阶方阵A,如果存在数a和非零n维列向量x,使得Ax=ax,则称a是矩阵A的一个特征,x是矩阵A属于特征a特征向量 eg1: import numpy as np A = np.mat('1 6 3 7;3 8 4 6;1 4 9 5;6 8 3 5') print('原矩阵:A=\n',...

    1. 特征值和特征向量

    对于n阶方阵A,如果存在数a和非零n维列向量x,使得Ax=ax,则称a是矩阵A的一个特征值,x是矩阵A属于特征值a的特征向量
    eg1:

    import numpy as np
    A = np.mat('1 6 3 7;3 8 4 6;1 4 9 5;6 8 3 5')
    print('原矩阵:A=\n',A)
    
    #提取特征值,特征向量
    eigvals,eigvecs = np.linalg.eig(A)
    print('特征值数组:\n',eigvals)
    print('特征向量:\n',eigvecs)
    
    #逆向推导原矩阵
    A2 = eigvecs* np.diag(eigvals)*eigvecs.I
    print('通过特征值特征向量反推原矩阵:A2=\n',A2)
    

    2. 奇异值分解(svd)

    有一个矩阵M,可以分解为3个矩阵U、S、V,使得U x S x V等于M。U与V都是正交矩阵(乘以自身的转置矩阵结果为单位矩阵)。那么S矩阵主对角线上的元素称为矩阵M的奇异值,其它元素均为0。

    import numpy as np
    M = np.mat('4 11 14; 8 7 -2')
    # 奇异值分解
    U, sv, V = np.linalg.svd(M, full_matrices=False)
    print(U * U.T)
    print(V * V.T)
    print(sv)
    
    #利用奇异值,和正交矩阵重构原矩阵。
    S = np.diag(sv)
    print(S)
    print(U * S * V)
    
    展开全文
  • 假如你要处理个数据集, 数据集中每条记录都是个dd维列向量. 但是这个dd太大了, 所以你希望把数据维度给降下来, 既可以去除一些冗余信息, 又可以降低处理数据时消耗计算资源(用computation budget 来描述可能...

    假如你要处理一个数据集, 数据集中的每条记录都是一个dd维列向量. 但是这个dd太大了, 所以你希望把数据维度给降下来, 既可以去除一些冗余信息, 又可以降低处理数据时消耗的计算资源(用computation budget 来描述可能更形象).

    用稍微正式点的语言描述:

    • 已知:一个数据集DD, 记录(或者样本, 或input pattern)xiDxi∈D 是dd维列向量.
    • 目标:将每个xDx∈D 映射到另一个pp维空间, p<dp<d(虽然等于也是可以的, 但没什么意义). 得到一个新的数据集ZZ, 对ZZ的要求是尽量保存DD中的有效信息.

    那么, 问题就来了. 如何将一个dd维向量映射成一个pp维向量? 答案是基变换. 然而基变换方式不是唯一的, 如何确保变换是最优的? 这就由优化目标"尽量保存原数据集中的信息" 决定了: 最好的基变换能保存最多的信息. 注意了, 这里的比较都是在同一个pp下进行的, 也就是说, 参与竞争的基集(basis set)们, 都把ddDD映射到了一个新的ppZZ.

    那么, (不好意思, 又一个那么. 这不是第一个, 当然也不是最后一个. 是的, 我喜欢用这个词.), 现在面临的问题是, 如何衡量信息的多少? 我并不懂信息科学, 只知道一点, 信息在差异中存在. 如果全是相同的东西, 量再多,它的信息量也没有多少. PCA算法采用方差(variance)来度量信息量.

    那么, 如何用variance来度量数据集DD包含的信息量呢? 一个基(basis)一个基地衡量. 数据集在某个基上的投影值(也是在这个基上的坐标值)越分散, 方差越大, 这个基保留的信息也就越多. 不严格的来一句, 一个基集保留下的信息量是每个基保留下的信息量的和.

    基于上面的理念, 或者说假设, 我们已经有一种可以有效地找出最优基集的方法了: 贪心算法---先找出保留信息量最大的基向量, 然后是第二大的, 然后然后, 直到找满pp个基向量.

    接下来, 将上面的分析用数学语言描述出来.
    vv为一个用于变换的基. DD中的某一条记录xxvv上的投影长度(即坐标值)为:

    proj(x,v)=vTx||v||proj(x,v)=vTx||v||

    假如vv为单位向量, 则:
    proj(x,v)=vTxproj(x,v)=vTx

    所以, 为了方便计算, 我们对vv有了一个约束条件: vv为单位向量. 这个太好说了, normalize 一下就行了.

    于是, 整个DDvv上的投影长度可以打包表示为:XvXv, 其中, XX是一个m×dm×d的矩阵, 每一行是一条记录, mmDD中的记录总数目. 在数据预处理时, 我们先将XX每一列的均值变为0: 先算出每一列的均值, 得到均值向量μμ, 然后从每一条记录xixi中减去μμxixiμxi←xi−μ. 最后用这些预处理后的xixi组成XX.
    现在, 我们来计算DDvv上的信息量, 即所有数据在vv上的投影长度的方差:

    μ(X,v)=0μ(X,v)=0

    info(D,v)=σ2(X,v)=1mi=1m(vTxiμ)2=1m(Xv)TXv=1mvTXTXvinfo(D,v)=σ2(X,v)=1m∑i=1m(vTxi−μ)2=1m(Xv)TXv=1mvTXTXv

    仔细看XTXXTX这个东西, 因为做过均值化处理, 1mXTX1mXTX, 成为了原数据集DD的协方差矩阵, 用CC表示. 所以
    info(D,v)=σ2(X,v)=vTCvinfo(D,v)=σ2(X,v)=vTCv

    这就是我们需要最大化的目标函数. 不过, 再回想一下, 我们之前为了方便计算还加了一个条件进来: vv是一个单位向量, 即vTv=1vTv=1. 把这个条件也加到目标函数里去:
    f(v)=vTCvλ(vTv1)f(v)=vTCv−λ(vTv−1)

    所以, 这才是我们最终需要优化的目标函数.
    now, 求使f(v)f(v)最大的vvf(v)f(v)取得条件极值的必要条件为:
    (这个矢量函数求偏导的过程类似于神经网络BP算法求偏导过程, 以后在另一篇文章单独推导.)
    fv=2Cv2λv=0∂f∂v=2Cv−2λv=0

    Cv=λvCv=λv

    所以, vvCC的特征向量. 它保存的信息量为:
    info(D,v)=vTCv=vTλv=λvTv=λinfo(D,v)=vTCv=vTλv=λvTv=λ

    于是, 奇迹就这么出现了: 信息量保存能力最大的基向量一定是DD的协方差矩阵的特征向量, 并且这个特征向量保存的信息量就是它对应的特征值.

    接下来的戏码你们应该都知道了: 用单位正交阵将CC对角化(CC是对称矩阵, 天生如此);特征值降序排列, 以排名前pp个特征值对应的特征向量作为新的基集. (这个做法看起来很自然, 但若细细思量, 会发现这一步是PCA算法里水最深的一步, 至少我现在还没真正理解为何要这么做, 听qw学长说要用什么Rayleigh商).

    剩下的问题, 比如降维后损失了多少信息, 也很明白了, 就不多讲了.

    展开全文
  • 设 A 是n阶方阵,如果存在数m... 非零n维列向量x称为矩阵A属于(对应于)特征m特征向量或本征向量,简称A特征向量或A本征向量。 Ax=mx,等价于求m,使得(mE-A)x=0,其中E是单位矩阵,0为零矩阵。 |mE-...
  • 特征和特征向量

    2019-10-01 19:02:29
    对于n阶方阵A,如果存在数a和非零n维列向量x,使得Ax=ax,则称a是矩阵A的一个特征,x是矩阵A属于特征a特征向量 #已知n阶方阵A, 求特征与特征数组 # eigvals: 特征数组 # eigvecs: 特征向量数组 ...
  • a = array([1,2,3]) #一维列向量 print(a.shape, a) b = array([[1,2,3]]) #二维横向量 print(b.shape, b) (3,) [1 2 3] (1, 3) [[1 2 3]] {关于numpy数组维度表示上的区别,numpy多维数组横向量和列向量的区别} ...
  •   设A\bm{A}A是数域FFF上nnn阶方阵,如果有数λ∈F\lambda \in Fλ∈F及FFF上nnn维列向量X=(x1,...,xn)T≠0\bm{X} = (x_1, ..., x_n)^T \ne \bm{0}X=(x1​,...,xn​)T​=0,使得AX=λX\bm{AX} = \lambda\bm{...
  • PCA, Principle ...假如你要处理个数据集, 数据集中每条记录都是个\(d\)维列向量. 但是这个\(d\)太大了, 所以你希望把数据维度给降下来, 既可以去除一些冗余信息, 又可以降低处理数据时消耗计算资源(...
  • 第五章 特征与特征向量5.1 特征与特征向量基本概念有 nn 阶方阵 A\bf{A},非零 nn 维列向量 α\boldsymbol{\alpha},若存在数 λ\lambda,使得关系式 Aα=λα\boldsymbol{A\alpha = \lambda\alpha} 成立,那么...
  • 向量范数

    2019-08-17 21:53:30
    向量范数定义如下: 若实函数(n维向量空间向维向量空间映射):满足下列条件: (1),;...设x为n维列向量,常用向量范数有范数,范数,范数: 一般地,对于,范数为: ...
  • 特征

    千次阅读 2017-03-15 11:27:35
     特征是线性代数中的一个重要概念。在数学、物理学、化学、计算机等领域有着广泛应用。...非零n维列向量x称为矩阵A属于(对应于)特征m特征向量或本征向量,简称A特征向量或A本征向量。 简介编
  • 对于n阶方阵A,如果存在数a和非零n维列向量x,使得Ax = ax,则称a是矩阵A的个特征,x是矩阵A数据特征a的特征向量 ---已知方阵A,求特征和特征向量的numpy实现:eigvals,eigvecs = np.linalg...
  • 矩阵特征

    2017-09-20 20:33:16
    设 A 是n阶方阵,如果存在数m和非零n维列向量 x,使得 Ax=mx 成立,则称 m 是矩阵A的一个特征(characteristic value)或本征(eigenvalue)。非零n维列向量x称为矩阵A属于(对应于)特征m特征向量或本征...
  • 特征选择技术要点 作者:王立敏 文章来源: 网络 ...设A是n阶方阵,如果存在数m和非零n维列向量x,使得Ax=mx成立,则称m是A的一个特征或本征。非零n维列向量x称为矩阵A属于特征m特征向量...
  • 对于n阶方阵A,如果存在数a和非零n维列向量x,使得Ax=ax,则称a是矩阵A的一个特征,x是矩阵A属于特征a特征向量。 #已知n阶方阵A, 求特征与特征数组 # eigvals: 特征数组 # eigvecs: 特征向量数组 ...
  • 学习笔记,这个笔记以例子为主。 开发工具:Spyder 文章目录特征和特征向量案例(求矩阵特征和特征向量)奇异...对于n阶方阵A,如果存在数a和非零n维列向量x,使得Ax=ax,则称a是矩阵A的一个特征,x是矩阵A...
  • 在matlab中实现ARIMA时间序列预测。函数形式如下: function [result] = ARIMA_algorithm(data, Periodicity, ACF_P, PACF_Q, n) ...所返回结果result是预测出来数据(一维列向量),同时会画出预测数据折线图。
  • 矩阵特征求法实例

    万次阅读 2018-10-30 21:45:08
    设 A 是n阶方阵,如果存在数m和非零n维列向量 x,使得 Ax=mx 成立,则称 m 是矩阵A的一个特征(characteristic value)或本征(eigenvalue)。 矩阵特征方法 对于矩阵A,由AX=λ0X,λ0EX=AX,得[λ...
  • 设 A 是n阶方阵,如果存在数λ和非零n维列向量 x,使得 Aα=λα 成立,则称 λ 是矩阵A的一个特征(characteristic value),而α是矩阵A对应于特征λ特征向量(Eigenvector)。 1.2 幺正矩阵(酉矩阵)...
  • note:这里h(x)是个K维列向量,整个h(x)代表个类别。请区分于二分类问题(即:0,1两个数分别代表了两类)。
  • 章 线性规划_01

    2020-06-13 16:15:31
    其中 c 和 x 为 n 维列向量, A 、 Aeq 为适当维数的矩阵,b 、beq 为适当维数的列向量 ·求最大值的线性规划问题转换: 基本函数形式为 linprog(c,A,b),它的返回值是向量 x 的值。还有其它的一些函数调用形 式(在...
  • 有关矩阵整理(持续更新) 特征: 特征是线性代数中的一个重要概念...设 A 是n阶方阵,如果存在数m和非零n维列向量x,使得 Ax=mx 成立,则称 m 是A的一个特征(characteristic value)或本征(eigenval...
  • Hilbert变换提取信号特征Python实现 开篇点题: 希尔伯特变换(hilbert ...设 A 是n阶方阵,如果存在数m和非零n维列向量 x,使得 Ax=mx 成立,则称 m 是A的一个特征或本征。 所以信号特征可以用来代替
  • 、线性规划 1.1 定义 它原理很简单,跟高中学过简单线性规划一样,不多说 1.2 MATLAB标准形式 线性规划目标函数可以...其中c和 x为n 维列向量, A、 Aeq 为适当维数矩阵,b 、beq为适当维数列向量。...
  • 开篇点题:希尔伯特变换(hilbert transform) 个连续时间信号s(t)希尔伯特变换等于该信号通过具有冲激响应h...先来段特征值的定义:设 A 是n阶方阵,如果存在数m和非零n维列向量x,使得 Ax=mx 成立,则称 m 是...

空空如也

空空如也

1 2 3 4
收藏数 63
精华内容 25
关键字:

一维列向量的值