精华内容
下载资源
问答
  • 特征值特征向量
    千次阅读
    2019-06-09 15:47:45

    以下内容是读这篇博客后的小结,学习了一下关于特征值特征向量与SVD奇异值分解相关知识。

    https://blog.csdn.net/xiaocong1990/article/details/54909126

    https://blog.csdn.net/zhyh1435589631/article/details/62218421

    特征值和特征向量是线性代数中十分重要的概念。在线性代数中,矩阵表示的是一种线性变换,特征值表示矩阵的主要信息,特征向量表示变换的主要方向。但是特征值与特征向量仅用于方阵中,对于一般的矩阵并不适用,因此引入SVD奇异值分解

    主要作用就是:用部分主要的的奇异值以及对应的奇异值向量来表示整个矩阵信息,这对于减小运算量与内存来说十分有用。其他具体内容上面的博客讲的非常清楚了,就不在重复。主要应用于:

    1、在ORB-SLAM的单目初始化过程中,大量的使用到了SVD奇异值分解。可以求解基本矩阵F,单应性矩阵H,以及初始化的三维点。

    2、PCA主成成分分析。

    贴上一个讲特征值与特征向量的视频,形象生动,有兴趣的可以看看:

    https://www.bilibili.com/video/av6540378?from=search&seid=1910776378530218193

     

    更多相关内容
  • Jacobi方法求解特征值特征向量,Jacobi方法求解特征值特征向量
  • 层次分析法来求得任何一个矩阵的特征值,特征向量,归一化向量
  • QR分解计算矩阵特征值、特征向量的 C语言实现
  • 经典jacobi法求解特征值特征向量,MATLAB代码实现。。
  • Python 计算特征值特征向量

    千次阅读 2022-04-07 17:06:58
    torch.tensor([[1,2,3],[4,5,6]]) a,b = np.linalg.eig(x) for i in range (len(a)): print('特征值,',a[i],'对应的特征向量',b[:,i]) 特征值, 2.4811943040920177 对应的特征向量 [-0.5298991 -0.35775124 -0....

    import  numpy as np
    import torch as torch
    
    # 0 1 0 1 1
    # 1 0 1 0 0
    # 0 1 0 0 1
    # 1 0 0 0 1
    # 1 0 1 1 0
    x=np.array([[0 ,1 ,0 ,1, 1],
                [1 ,0, 1, 0, 0],[0, 1, 0, 0, 1],[1, 0, 0, 0, 1],[1, 0, 1, 1, 0]])
    # a = torch.tensor([[1,2,3],[4,5,6]])
    a,b = np.linalg.eig(x)
    for i in range (len(a)):
        print('特征值,',a[i],'对应的特征向量',b[:,i])

     特征值, 2.4811943040920177 对应的特征向量 [-0.5298991  -0.35775124 -0.35775124 -0.42713229 -0.5298991 ]
    特征值, -2.0000000000000018 对应的特征向量 [-5.00000000e-01  5.00000000e-01 -5.00000000e-01  1.62803112e-16
      5.00000000e-01]
    特征值, -1.170086486626034 对应的特征向量 [-0.43248663  0.19929465  0.19929465  0.73923874 -0.43248663]
    特征值, 1.5260202360125897e-17 对应的特征向量 [ 5.00000000e-01  5.00000000e-01 -5.00000000e-01  2.79154475e-16
     -5.00000000e-01]
    特征值, 0.6888921825340182 对应的特征向量 [ 0.1793384  -0.57645095 -0.57645095  0.52065737  0.1793384 ]

    展开全文
  • 特征值特征向量到方向分析(标准差椭圆) 一. 特征值与特征向量的意义                      Ax=λx    几何直观解释为x向量在矩阵A作用下使得x向量方向不变,且拉伸了λ倍。那x向量和λ的具体...

    从特征值特征向量到方向分析(标准差椭圆)

    一. 特征值与特征向量的意义

                         Ax=λx
       几何直观解释为x向量在矩阵A作用下使得x向量方向不变,且拉伸了λ倍。那x向量和λ的具体意义是什么呢?为什么有人说特征值分解就是变换坐标轴呢?

    1. 线性变换的几何角度:
    • (1)从相似变换,线性变换角度为起点:

        设V是数域P上的n维线性空间,T是V的一个线性变换,现取定V的一组基α_1,α_2,α_3,…α_n,则每个Tα_i都是V中向量(i=1,2,…,n),故可设

    线性变换矩阵

       写成形式矩阵:
    形式矩阵
       矩阵
    矩阵A

       称为线性变换T在基α_1,α_2,α_3,…α_n下的矩阵。

      根据矩阵论严格推导,我们有定理: 一个线性变换在不同基下的矩阵是相似的,且使得其相似的矩阵是两者的过渡矩阵。也就是说两个矩阵相似,他们的含义就是他们是某一线性变换在两个不同基下的矩阵,即同一线性变换的不同基下的描述方式不同。

    • (2)以二维数据为例,协方差的特征分解的含义

       我们以二维数据为例,X,Y 多个点对,其协方差矩阵M可以表示为
    M协方差矩阵
       我们将M进行特征分解,分解公式为:
    M特征分解

        从矩阵特点及定义,可以得到M与Λ矩阵相似,那么根据(1)得出的结论,我们就可以把它看成,M和Λ是同一个线性变换在不同基下的描述矩阵,且Q为两者基的过渡矩阵。

        我们不妨设线性变换为T, T在基α_1,α_2下的矩阵为M,在基β_1,β_2下的矩阵为Λ。

        两个基的过渡矩阵即为Q,满足:

    过渡关系


        接下来则从几何图形角度,得到这个基到底是谁,代表什么,我们首先画出一个坐标系和一些点对,假设这些点对求出的协方差矩阵即为上述假设出的M矩阵:
    图1 坐标系及点对

        我们计算协方差时,点是以X,Y表示,那么更详细的说法则是点是以两个正交的轴,以1为单位所标注出来的坐标点,从基的角度则是以向量(1,0)’ (0,1)'为基,分别在X方向,Y方向的长度。

       线性变换是一种抽象的计算函数,在协方差中线性变换T则是方差的计算函数,那么通过几何我们可以得到M是T在以(1,0)’(0,1)'为基的描述矩阵。

       那么再看两个基满足的式子:
    过渡关系

       那么(α_1,α_2)就是

       代入后得到原来 Q 就 是 Λ 描 述 线 性 变 换 T 下 的 基 啊 ! \color{red}{Q就是Λ描述线性变换T下的基啊!} QΛ线T


       那这个基有啥特点呢,为什么要分解为这个基?而不是别的。

       我们知道特征值分解后,Λ矩阵是一个对角阵,且对角值都是特征值
    特征值矩阵

       Λ与M矩阵都是描述同一个线性变换T,Λ这个描述就很有特色,他让每一个维度都独立了出来,即维度间互不相关了,直观的理解就是,以前我是一个直角坐标系,现在我可以表示成这样了:

    X维

    Y维

       啥意思? 就是我们只关心一个维度 分别画出来,比如只关心X值,那么把X画在X轴上。 相当于把一个复合的东西,分解成一个一个的。

       那Q其实就是能够在单维度上表达出值的那个轴,比如在X维度上,Q上的X维的特征向量 就是一个可以像示例一样,以一维方式表达值的X轴,所以有时为了理解我们会说成是坐标轴的转换。


       数学角度的意思搞懂了,从实际意义呢,为什么要把各个维度分开呢,其实就是我们要找到每个维度原本的值。举例子 我们从单维度向多维映射思想讲解:

    • 现在我们有一个一维线

    单维度

    • 我们把这些值投射到两个维度上:
      一维映射到二维

       线上的点值从单维映射到了二维上,相当于一块木头本来用一个工具就能打磨好,现在我用了两个工具一起打磨,也就造成了这两个维度上的值 在这个单维度上有了相关性,一个人的活分给了两个人干,每个维度的值必定会小于原本单维度的值。

       而我们进行特征值分解,就是找到这个单维度的轴,把值聚合起来(不是单纯的相加),看看他所拥有的值。即找到某维度上其本该拥有的值,值在不映射到多维时,最大。

       我们从整体来看,当每个维度都分离开了,看到了每个维度所拥有的值,那么整体效果,就是每个维度所叠加聚合形成的,每个维度的贡献就是其拥有的值的大小,越大贡献越多,整体表现也趋向较大的一方。
       那么结论也就有了,特征值在协方差的意义基础上,就是以单位长度的特征向量为基,每个维度上的值对应的方差。 即此时的特征值就是每个维度的最大方差。可根据具体数据自行确认。

    *以上的结论有隐藏条件,1。维度间是正交的,因为协方差是对称矩阵,所以必正交。 2。基也必须是单位长度才能说特征值为方差,相当于以1为刻度。 假如不是单位长度呢?自行思考,同样的道理只是尺度不同。


    2. 统计学角度:

    从多元正态分布角度考虑,参考知乎大佬的文章:
    https://zhuanlan.zhihu.com/p/37609917
    从多元正态分布角度,协方差矩阵特征分解与点位分布的关系

    结论:多元正态分布的概率密度是由协方差矩阵的特征向量控制旋转(rotation),特征值控制尺度(scale),即特征向量矩阵为点分布的旋转矩阵,而特征值为 点位分布拉伸的平方。协方差即分布的一种几何表达

    注意:经常会碰到说特征值是拉伸倍数,平常所见的是对特征向量的拉伸倍数,对于点的分布是拉伸倍数的开方。 作用对象不同。

    二. 方向分析(标准差椭圆)中的应用

       方向分析或者说标准差椭圆用于点集的方向与范围表达,点集的方向表现在点集整体的最大离散方向即方差最大的维度上,范围表现在各维度上最大离散方向的聚合。

       表现在坐标上,方向则是找出使点的X值或者Y值在某向量或者说轴上方差最大,范围则是X,Y值两者各自最大方差的两个向量构成的椭圆。
       从正态分布的角度上,椭圆的具体参数 中心为所有点的均值处,长半轴为 X值维度与Y值维度方差较大者的 标准差,短半轴为X值维度与Y值维度方差较小者的 标准差。方向为 X值维度与Y值维度方差较大者的 轴向量方向


    可以按照涵盖点位的比例,选取半径为1,2,3倍。

    标准差椭圆示意图

    展开全文
  • QR法求解特征值特征向量(MATLAB)课设,已经调试成功
  • java求矩阵的特征值和特征向量源码
  • 特征值 特征向量 广义特征值 matlab

    千次阅读 2021-04-20 02:52:56
    d=eig(A) www.iLoveMatlab.cn返回矩阵A特征值的一个向量d。d=eig(A,B)www.iLoveMatlab.cn如果A和B是方阵的,返回包含广义特征的向量。注意:如果S是稀疏对称的,用d = eig(S) 可以返回S的特征值。如果S是稀疏但不...

    d=eig(A) www.iLoveMatlab.cn

    返回矩阵A特征值的一个向量d。

    d=eig(A,B)

    www.iLoveMatlab.cn

    如果A和B是方阵的,返回包含广义特征的向量。

    注意:如果S是稀疏对称的,用d = eig(S) 可以返回S的特征值。如果S是稀疏但不对称,若要想得到S的特征向量,用函数eigs代替eig。

    [V,D]=eig(A) book.iLoveMatlab.cn

    计算矩阵A的特征值D和特征矩阵V,满足A*V = V*D。矩阵D是矩阵A的规范形式:主对角线上的元素是矩阵A的特征值的对角矩阵。

    [V,D] = eig(A,'nobalance')

    当矩阵A中有与截断误差数量级相差不远的值时,改命令可能更加精确,'nobalance'起误差调节作用。

    [V,D] = eig(A,B)

    计算广义特征向量矩阵V和广义特征值矩阵D,满足A*V = B*V*D 。

    [V,D] = eig(A,B,flag)

    由flag指定算法来计算特征值D和特征向量V,flag的可能值为:

    'chol':表示对B进行cholesky分解算法,这里A是对称的Hermitian矩阵,B为正定矩阵。 Matlab中文论坛

    'qz':表示使用qz分解算法,这里A、B是非对称或非Hermitian矩阵。

    广义特征值是求解Ax=λBx的非0解,满足的λ值。当A,B是方阵就可以用eig(A,B)求解

    特征值是求解Ax=λx的非0解,满足的λ值。当A是方阵 则可用eig(A)求解

    1. eig(pinv(A)*B) 是求解 pinv(A)*Bx=λx 就是 A-1Bx=λx

    2. eig(A,B)  是求解 Ax=λBx  就是 B-1Ax=λx

    在MATLAB中,计算矩阵A的特征值和特征向量的函数是eig(A),常用的调用格式有

    5种:

    (1) E=eig(A):求矩阵A的全部特征值,构成向量E。

    (2) [V,D]=eig(A):求矩阵A的全部特征值,构成对角阵D,并求A的特征向量构成

    V的列向量。

    (3) [V,D]=eig(A,'nobalance'):与第2种格式类似,但第2种格式中先对A作相似

    变换后求矩阵A的特征值和特征向量,而格式3直接求矩阵A的特征值和特征向量。

    (4) E=eig(A,B):由eig(A,B)返回N×N阶方阵A和B的N个广义特征值,构成向量E

    (5) [V,D]=eig(A,B):由eig(A,B)返回方阵A和B的N个广义特征值,构成N×N阶对

    角阵D,其对角线上的N个元素即为相应的广义特征值,同时将返回相应的特征向

    量构成N×N阶满秩矩阵,且满足AV=BVD。

    展开全文
  • 特征值和特征向量的理解

    千次阅读 2020-06-29 18:10:28
    在线性代数的最后,我们都会学矩阵的特征值分解,我们知道一个方阵A经过特征值分解后就得到特征向量特征值了。那么,这个所谓的特征值和特征向量到底是什么东西呢? 我们一上来就会学到这样的一个公式: Ax = λ...
  • 《矩阵特征值与特征向量的定义与性质》教学设计.pdf
  • 已知随机变量X的协方差矩阵求去X的特征值 特征向量 PCA投影矩阵 相关的知识都忘记了,去查的时候没有耐心看别人长篇大论讲解,就只简单记录了一下如果从协方差矩阵来计算特征值和特征向量。 定义:1.特征值...
  • 特征值与特征向量

    万次阅读 2019-08-23 16:58:11
    本文参考《Linear Algebra and Its Applications》——David C.Lay, Steven R....A为n*n的矩阵,x为非零向量,若存在数λ使Ax=λx有非平凡解x,则称λ为A的特征值,x称为对应于λ的特征向量。 例:设,...
  • 第二十四篇 特征值问题编程基础:特征值特征向量的求解和性质 特征值方程 在分析结构稳定性或振动系统的固有频率时,经常会出现这种情况。我们必须找到一个向量{x},当它与[a]相乘时,得到它自身的标量倍。这个λ...
  • 矩阵特征值及实特征值对应的特征向量求解
  • 求解方阵所有的特征值以及特征值对应的特征向量
  • java求矩阵的特征值和特征向量

    热门讨论 2012-05-25 11:18:29
    这几天做一个项目,需要用到 求矩阵的特征值特征向量。我c++学的不好,所以就去网站找了很多java的源代码,来实现这个功能。很多都不完善,甚至是不准确。所以自己参考写了一个。这个用于我一个朋友的毕业设计。结果...
  • 深入整理了雅克比方法求解特征值和特征向量,包括公式推导,最后介绍了opencv中的算法流程和实现。
  • QR法求解特征值特征向量

    千次阅读 2021-04-05 20:58:48
    当Ak基本收敛到为上三角矩阵时,迭代完成,此时主对角元素就是特征值。 特别地:当A是对称阵的时候,Ak是对角阵Λ,Q=Qk-1Qk-2…Q1就是其正交特征向量矩,有QTAQ=Ak=Λ,即A正交对角化与Ak。 如何理解?我们看下图...
  • Jacobi法求特征值特征向量

    千次阅读 2019-07-02 21:30:28
    Jacobi法求特征值特征向量引言Jacobi法求特征值特征向量 引言 参考链接1 参考链接2 参考链接3 参考链接4 Jacobi法求特征值特征向量 求解使用对象:实对称矩阵RRR,性质有RR−1=IRR^{-1}=IRR−1=I 即是 RT=R−1R^T=R...
  • 矩阵的特征值和特征向量

    千次阅读 2021-03-27 14:47:19
    矩阵的特征值和特征向量特征值的理解特征值 、特征向量、方阵的关系几何意义物理意义特征分解特征值和特征向量的含义的应用补充一点 特征值的理解 其实刚上大学的时候上的线性代数课上,也只是简单讲解了特征值和...
  • 特征值和特征向量计算器为4X4的实矩阵λ 是 [A] 矩阵的特征值 (标量),如果有一个非零向量 (v) 这样满足以下关系:[A](v) = λ (v)每个向量 (v) 满足这个方程叫做 [A] 属于特征值 λ 的特征向量。作为一个例子,在一...
  • 特征值与特征向量定义 Ax =λx,则λ是A的一个特征值,x为A对应于特征值λ的特征向量 特征值为零,矩阵不可逆 求A的特征值:解特征多项式det(A-λI) eigen求矩阵的特征值与特征向量,但有限制,必须是对称矩阵 #include ...
  • python 求矩阵的特征值和特征向量

    千次阅读 热门讨论 2020-12-23 12:51:01
    python 求矩阵的特征值和特征向量
  • SVD也是对矩阵进行分解,但是和特征分解不同,SVD并不要求要分解的矩阵为方阵。假设我们的矩阵A是一个m×n的矩阵,那么我们定义矩阵A的SVD为:A=UΣVT其中U是一个m×m的矩阵,Σ是一个m×n的矩阵,除了主对角线上的...
  • 包含QR分解法,其中有北航大作业三道题目完整版,程序运行无误,另外还收集到java版本。保质保量
  • 特征值分解:特征值,特征向量,特征向量矩阵

    千次阅读 多人点赞 2019-01-19 09:57:26
    特征值和特征向量 特征向量矩阵 特征向量矩阵S,由矩阵A的所有线性无关的特征向量按列排列组成的矩阵。 特征值矩阵,有矩阵A的所有特征值放在对角线位置组成的对角矩阵。 特征值分解的物理意义 矩阵的...
  • 参考:特征值与特征向量
  • 特征值和特征向量的作用

    千次阅读 多人点赞 2019-03-04 21:13:44
    本文转自知乎大牛。 从定义出发,Ax=cx:A为矩阵,c为特征值,x为特征向量。 矩阵A乘以x表示,对向量x进行一次转换(旋转或拉伸)(是一种线性转换),而该转换的效果为常数c乘以向量x(即只进行拉伸)。 ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 233,499
精华内容 93,399
关键字:

特征值特征向量