精华内容
下载资源
问答
  • 谈谈特征向量的正交性小唠嗑一、定理:实对称矩阵不同特征值对应的特征向量都正交二、证明思路总结结尾小独白 小唠嗑 很多时候自己学一些新知识的时候,总是会用到之前学过的知识点,但是由于有些点比较零散,不太...


    小唠嗑

    很多时候自己学一些新知识的时候,总是会用到之前学过的知识点,但是由于有些点比较零散,不太能串成一条线。所以目前的我就准备遇到一个知识点便写出来回顾一下,积累多了再找个时间再汇个总,梳理一下给它串起来。话不多说!
    今天就谈谈特征向量的正交性吧!
    Let 's begin!

    一、定理:实对称矩阵不同特征值对应的特征向量都正交

    证明:设 λ 1 \lambda_1 λ1, λ 2 \lambda_2 λ2 A A A的两个不同的特征值, α 1 \alpha_1 α1, α 2 \alpha_2 α2分别是其对应的特征向量
    即有: A α 1 = λ 1 α 1 A α 2 = λ 2 α 2 A\alpha_1=\lambda_1\alpha_1\quad\quad\quad A\alpha_2=\lambda_2\alpha_2 Aα1=λ1α1Aα2=λ2α2

    两边取转置: α 1 T A = λ 1 α 1 T α 2 T A = λ 2 α 2 T \alpha_1^TA=\lambda_1\alpha_1^T\quad \quad\quad \alpha_2^TA=\lambda_2\alpha_2^T α1TA=λ1α1Tα2TA=λ2α2T
    两式分别右乘 α 2 \alpha_2 α2 α 1 \alpha_1 α1,则有:
    α 1 T A α 2 = λ 1 α 1 T α 2 ( 1 ) \alpha_1^TA\alpha_2=\lambda_1\alpha_1^T\alpha_2\quad\quad\quad\quad\quad\quad(1) α1TAα2=λ1α1Tα2(1)
    α 2 T A α 1 = λ 2 α 2 T α 1 ( 2 ) \alpha_2^TA\alpha_1=\lambda_2\alpha_2^T\alpha_1\quad\quad\quad\quad\quad\quad(2) α2TAα1=λ2α2Tα1(2)
    再对 ( 2 ) (2) (2)式两端取转置有: α 1 T A α 2 = λ 2 α 1 T α 2 ( 3 ) \alpha_1^TA\alpha_2=\lambda_2\alpha_1^T\alpha_2\quad\quad\quad\quad\quad(3) α1TAα2=λ2α1Tα2(3)
    ( 1 ) − ( 3 ) (1)-(3) (1)3式得: 0 = ( λ 1 − λ 2 ) α 1 T α 2 0=(\lambda_1-\lambda_2)\alpha_1^T\alpha_2 0=(λ1λ2)α1Tα2
    ∵ λ 1 ≠ λ 2 \because\quad\lambda_1\neq\lambda_2 λ1=λ2
    ∴ α 1 T α 2 = 0 \therefore\quad \alpha_1^T\alpha_2=0 α1Tα2=0
    α 1 \alpha_1 α1 α 2 \alpha_2 α2正交得证。

    二、证明思路总结

    其证明的核心思想是取转置,两式左边构造成一致,做差后利用特征值不相同得出特征向量正交。

    结尾小独白

    Amazing !这已经是第四篇博客了哈哈哈哈哈,我也没想到我还能继续写下去,为了写一篇优化算法的博客出来就会牵涉到好多小的知识点,所以我得先把这些小的知识写出来铺垫一下。接下来还有好几个碎片化知识点和一个优化算法的博客需要发出来,干就完事!(latax写公式确实还挺🆒)
    如果解决了你的小困惑,希望一键三连支持一下!yeah!yeah!yeah!

    展开全文
  • 证明:不同特征值对应的特征向量线性无关

    万次阅读 多人点赞 2020-12-07 11:16:48
    设λ1,...,λk\lambda_1, ..., \lambda_kλ1​,...,λk​ 为方针 An×nA^{n\times n}An×n的kkk 个不同特征值对应的特征向量分别为 x1,...,xkx_1, ..., x_kx1​,...,xk​。 假设 x1,...,xr(r<k)x_1, ..., x_r(r...

    证明

    λ 1 , . . . , λ k \lambda_1, ..., \lambda_k λ1,...,λk 为方针 A n × n A^{n\times n} An×n k k k 个不同特征值,对应的特征向量分别为 x 1 , . . . , x k x_1, ..., x_k x1,...,xk

    假设 x 1 , . . . , x r ( r < k ) x_1, ..., x_r(r<k) x1,...,xr(r<k) 线性无关(如果有必要交换特征向量顺序),而 x 1 , . . . , x r , x r + 1 x_1, ..., x_r, x_{r+1} x1,...,xr,xr+1 线性相关,则存在不全为 0 0 0 c 1 , . . . , c r + 1 c_1, ..., c_{r+1} c1,...,cr+1 使得:

    c 1 x 1 + . . . + c r x r + c r + 1 x r + 1 = 0 (1) c_1 x_1 + ... + c_r x_r + c_{r+1}x_{r+1} = 0 \tag{1} c1x1+...+crxr+cr+1xr+1=0(1)

    c r + 1 c_{r+1} cr+1 不为 0 0 0,否则 x 1 , . . . , x r x_1, ..., x_r x1,...,xr 线性相关。

    对(1) 式左右两边同时乘以 A A A

    c 1 A x 1 + . . . + c r A x r + c r + 1 A x r + 1 = 0 (2) c_1 A x_1 + ... + c_r A x_r + c_{r+1} A x_{r+1} = 0 \tag{2} c1Ax1+...+crAxr+cr+1Axr+1=0(2)

    也即

    c 1 λ 1 x 1 + . . . + c r λ r x r + c r + 1 λ r + 1 x r + 1 = 0 (3) c_1 \lambda_1 x_1 + ... + c_r \lambda_r x_r + c_{r+1} \lambda_{r+1} x_{r+1} = 0 \tag{3} c1λ1x1+...+crλrxr+cr+1λr+1xr+1=0(3)

    (1) 式乘以 λ r + 1 \lambda_{r+1} λr+1 与(3) 式子相减得

    c 1 ( λ r + 1 − λ 1 ) x 1 + . . . + c r ( λ r + 1 − λ r ) x r = 0 (4) c_1 (\lambda_{r+1} - \lambda_1) x_1 + ... + c_r (\lambda_{r+1} - \lambda_r) x_r = 0 \tag{4} c1(λr+1λ1)x1+...+cr(λr+1λr)xr=0(4)

    由于特征根不同, λ r + 1 − λ i ( i = 1 , . . . , r ) ≠ 0 \lambda_{r+1} - \lambda_i(i=1,...,r) \neq 0 λr+1λi(i=1,...,r)=0,故(4) 式表明特征向量 x 1 , . . , x r x_1, .., x_r x1,..,xr 线性相关,与假设矛盾。因此, x 1 , . . . , x r , x r + 1 x_1, ..., x_r, x_{r+1} x1,...,xr,xr+1 线性无关。

    证毕


    分析

    该证明利用反证法,有一定的技巧性,一是要把线性无关转化为方程只有零解的形式;二是要利用特征值、特征向量与原矩阵的关系。

    此处证明不同特征值对应的特征向量线性无关,但是一个特征值对应的多个特征向量是否线性无关并没有证明。

    展开全文
  • 学习矩阵对角化(diagonalization)时需要了解一个定理:**不同特征值对应的特征向量线性无关**。我们知道,一个 n 维矩阵是否可以对角化取决于其是否具有 n 个线性无关的特征向量。所以,在上面的定理的基础上可以...

    前言

    学习矩阵对角化(diagonalization)时需要了解一个定理:不同特征值对应的特征向量线性无关。我们知道,一个 n 维矩阵是否可以对角化取决于其是否具有 n 个线性无关的特征向量。所以,在上面的定理的基础上可以得出结论:一个具有 n 个相互不同的特征值的 n 维矩阵必可对角化

    本文的中心便是要证明该定理——不同特征值对应的特征向量线性无关。

    证明

    给定一个 n 维矩阵 A ,其具有 n 个不等的特征值,分别为 λ 1 , . . . , λ n \lambda_1,...,\lambda_n λ1,...,λn,而 x 1 , . . . , x 2 x_1,...,x_2 x1,...,x2 为分别对应 n 个不等特征值的特征向量。我们需要证明这些特征向量线性无关。

    先假设这些特征向量线性相关,则存在 n 个不全为零的常数( c i c_i ci)使得如下式子成立:
    c 1 x 1 + c 2 x 2 + . . . + c n x n = 0 (1) c_1x_1 + c_2x_2 +...+c_nx_n = 0 \tag{1} c1x1+c2x2+...+cnxn=0(1)
    用矩阵 A 左乘式 ( 1 ) (1) (1) ,根据 A x i = λ i x i Ax_i = \lambda_i x_i Axi=λixi 得:
    c 1 λ 1 x 1 + c 2 λ 2 x 2 + . . . + c n λ n x n = 0 (2) c_1\lambda_1x_1 + c_2\lambda_2x_2 +...+c_n\lambda_nx_n = 0 \tag{2} c1λ1x1+c2λ2x2+...+cnλnxn=0(2)
    再用式 ( 2 ) (2) (2) 减去 λ n ∗ ( 1 ) \lambda_n * (1) λn(1) ,得:
    c 1 ( λ 1 − λ n ) x 1 + c 2 ( λ 2 − λ n ) x 2 + . . . + c n − 1 ( λ n − 1 − λ n ) x n − 1 = 0 (3) c_1(\lambda_1-\lambda_n)x_1 + c_2(\lambda_2-\lambda_n)x_2 + ... + c_{n-1}(\lambda_{n-1}-\lambda_n)x_{n-1} = 0 \tag{3} c1(λ1λn)x1+c2(λ2λn)x2+...+cn1(λn1λn)xn1=0(3)
    接下来,可将 x i x_i xi 前面的系数 c i ( λ i − λ n ) c_i(\lambda_i-\lambda_n) ci(λiλn) 用常数 d i d_i di 代替,则式 ( 3 ) (3) (3) 可写成:
    d 1 x 1 + d 2 x 2 + . . . + d n − 1 x n − 1 = 0 (4) d_1x_1 + d_2x_2 +...+d_{n-1}x_{n-1} = 0 \tag{4} d1x1+d2x2+...+dn1xn1=0(4)
    ( 4 ) (4) (4) 是不是与式 ( 1 ) (1) (1) 形式一样?只是少了一个 x n x_n xn。那么对式 ( 4 ) (4) (4) 也进行类似式 ( 1 ) (1) (1) 的处理,可得:
    d 1 ( λ 1 − λ n − 1 ) x 1 + d 2 ( λ 2 − λ n − 1 ) x 2 + . . . + d n − 2 ( λ n − 2 − λ n − 1 ) x n − 2 = 0 (5) d_1(\lambda_1-\lambda_{n-1})x_1 + d_2(\lambda_2-\lambda_{n-1})x_2 + ... + d_{n-2}(\lambda_{n-2}-\lambda_{n-1})x_{n-2} = 0 \tag{5} d1(λ1λn1)x1+d2(λ2λn1)x2+...+dn2(λn2λn1)xn2=0(5)

    若是按照前面的步骤(式 ( 1 ) (1) (1) 至式 ( 3 ) (3) (3))重复进行 n − 2 n - 2 n2 次(每次都用一个不同的单个字符代替 x i x_i xi 前面的系数)后,可得:
    m 1 ( λ 1 − λ 3 ) x 1 + m 2 ( λ 2 − λ 3 ) x 2 = 0 (6) m_1(\lambda_1-\lambda_3)x_1 + m_2(\lambda_2-\lambda_3)x_2 = 0 \tag{6} m1(λ1λ3)x1+m2(λ2λ3)x2=0(6)

    n i n_i ni 代替式 ( 6 ) (6) (6) x i x_i xi 的系数,即令 n 1 = m 1 ( λ 1 − λ 3 ) n_1 = m_1(\lambda_1-\lambda_3) n1=m1(λ1λ3) n 2 = m 2 ( λ 2 − λ 3 ) n_2 = m_2(\lambda_2-\lambda_3) n2=m2(λ2λ3)

    再按照前面的步骤(式 ( 1 ) (1) (1) 至式 ( 3 ) (3) (3))进行一次处理,可得 n 1 ( λ 1 − λ 2 ) x 1 = 0 n_1(\lambda_1-\lambda_2)x_1=0 n1(λ1λ2)x1=0 n 1 n_1 n1 为常数),由于特征向量不为零且各特征值都不相等,所以只能是 n 1 = 0 n_1 = 0 n1=0,又因为 n 1 = m 1 ( λ 1 − λ 3 ) n_1 = m_1(\lambda_1-\lambda_3) n1=m1(λ1λ3),所以 m 1 = 0 m_1=0 m1=0,带入到式 ( 6 ) (6) (6) 中可得 m 2 = 0 m_2=0 m2=0,如此往后迭代最终可得:
    c i = 0 for i  = 1 , 2 , . . . , n c_i=0 \quad \text{for i } = 1,2,...,n ci=0for i =1,2,...,n
    则说明前面的假设(n 个特征向量 λ 1 , . . . , λ n \lambda_1,...,\lambda_n λ1,...,λn 是线性相关)是错误的,故 矩阵不同特征值对应的特征向量线性无关 得证。

    参考源

    • 《Linear Algebra and Its Applications》Gilbert Strang 著
    展开全文
  • 矩阵特征值及实特征值对应的特征向量求解
  • **不同特征值对应的特征向量相互正交**...如果一个 n 维矩阵的不同特征值对应的特征向量相互正交,那么这个矩阵不同特征值对应的特征向量之间线性无关,即该矩阵具有 n 个线性无关的特征向量,所以该矩阵可相似对角化。

    前言

    不同特征值对应的特征向量相互正交,是实对称矩阵的一个重要属性,而且从这个属性出发可以证明实对称矩阵的另一个属性:实对称矩阵必可相似对角化。对于一个 n 维矩阵,其可相似对角化的充分且必要条件是——具有 n 个线性无关的特征向量。如果一个 n 维矩阵的不同特征值对应的特征向量相互正交,那么这个矩阵不同特征值对应的特征向量之间线性无关,又因为实对称矩阵 A 的 k 重特征值所对应的线性无关的特征向量恰有 k 个,则 n 维实对称矩阵必然具有 n 个线性无关的特征向量,所以,实对称矩阵必可相似对角化。

    本文的中心是证明——对于实对称矩阵,不同特征值对应的特征向量相互正交。

    证明

    给定一个 n 维实对称矩阵 S S S ,用 λ , α \lambda, \alpha λ,α 表示它的两个不等的特征值,用 x , y x, y x,y 分别表示 S S S 对应于 λ , α \lambda, \alpha λ,α 的特征向量,即: S T = S ,   S x = λ x ,   S y = α y   ( α ≠ λ ) S^T=S,\ Sx=\lambda x ,\ Sy=\alpha y \ (\alpha \neq \lambda) ST=S, Sx=λx, Sy=αy (α=λ).

    S x = λ x Sx=\lambda x Sx=λx 两边转置,得 x T S T = λ x T x^TS^T=\lambda x^T xTST=λxT,再往两端右乘一个 y y y,并利用 S T = S S^T=S ST=S,得:
    x T S y = λ x T y (1) x^TSy = \lambda x^Ty \tag{1} xTSy=λxTy(1)
    S y = α y Sy=\alpha y Sy=αy 两端左乘一个 x T x^T xT,得:
    x T S y = α x T y (2) x^TSy=\alpha x^Ty \tag{2} xTSy=αxTy(2)
    再用 式 ( 1 ) (1) (1) 减去 式 ( 2 ) (2) (2)
    0 = ( λ − α ) x T y (3) 0 = (\lambda - \alpha)x^Ty \tag{3} 0=(λα)xTy(3)
    已知 λ ≠ α \lambda \neq \alpha λ=α,所以只能是 x T y = 0 x^Ty=0 xTy=0,即特征向量 x x x 与特征向量 y y y 相互正交,故得证:对于实对称矩阵,不同特征值对应的特征向量相互正交。

    参考源

    展开全文
  • 不同特征值对应的特征向量

    千次阅读 2016-12-09 23:31:00
    \(A\)为方阵, \(x_1, x_2\)分别为\(\lambda_1, \...不同特征值对应的特征向量线性不相关, 即\(x_1, x_2\)线性不相关 假设\(x_1, x_2\)线性相关, 则存在非0值\(k\)使得\(x_1 = k x_2\)成立. 可得: \[A x_1 = k A x_2...
  • 颜庆津版数值分析编程作业,C语言(少量C++语法)实现矩阵的QR分解法迭代求矩阵的全部复数格式特征值,先对矩阵进行拟上三角化再迭代,迭代求出全部特征值后使用列主元素高斯消元法求出所有实特征值对应的特征向量
  • 直接看下面的代码就行啦! import numpy as np #输入矩阵 A = np.array([[1, 1/2, 4, 3, 3], [2, 1, 7, 5, 5], [1/4, 1/7, 1, 1/2, 1/3], ...#求解特征值即特征向量 lamda = np.linalg.eig(A) fo.
  • 幂法求任意阶数方阵最大特征值对应的特征向量,可自己规定迭代次数,精确度,初始向量
  • 计算矩阵特征值,采用幂法求矩阵的主特征值及主特征向量
  • C语言计算特征值和特征向量

    热门讨论 2013-03-05 22:51:00
    本代码用C语言进行编程,可以计算矩阵的特征值和相应的特征向量
  • matlab——求矩阵最大特征值对应的特征向量

    万次阅读 多人点赞 2018-06-20 23:04:50
    A=[1,1,2,3,4;1,1,1,2,3;...%求矩阵的特征值和特征向量,x为特征向量矩阵,y为特征值矩阵。 eigenvalue=diag(y);%求对角线向量 lamda=max(eigenvalue);%求最大特征值 for i=1:length(A)%求最大特征值对...
  • 求可逆矩阵 P,使 P^(-1)AP=∧ 的一般解题步骤 ...但是,当特征值有重根时,相同特征值对应不同特征向量顺序可以交换吗? 经过验证,相同特征值 对应的 不同特征向量 顺序 可以交换 。过程如下: ...
  • 矩阵重复特征值时,特征向量的简便求法STEP 1 算特征值STEP 2 找零度STEP 3 判断零度null与特征值重复次数是否相等STEP 4 使零度null与特征值重数相等STEP 5 找出部分特征向量STEP 6 找出全部特征向量 STEP 1 算特征...
  • 用幂法求矩阵最大的特征值及其对应的特征向量
  • 特征值和特征向量的几何含义理解

    千次阅读 2019-12-04 12:33:38
    在刚开始学的特征值和特征向量的时候只是知道了定义和式子,并没有理解其内在的含义和...成立,那么,这样的数λ称为矩阵A的特征值,非零向量x称为A的对应特征值λ的特征向量,(1)式还可以写为:   &nbs...
  • 特征值与特征向量

    千次阅读 2019-08-23 16:58:11
    本文参考《Linear Algebra and Its Applications》——David C.Lay, Steven R....A为n*n的矩阵,x为非零向量,若存在数λ使Ax=λx有非平凡解x,则称λ为A的特征值,x称为对应于λ的特征向量。 例:设,...
  • 设Ap=mp,Aq=nq,其中A是实对称矩阵,m,n为其不同特征值,p,q分别为其对应得特征向量.  则 p^T(Aq)=p^T(nq)=np^Tq  (p^TA)q=(p^TA^T)q=(AP)^Tq=(mp)^Tq=mp^Tq  因为 p^T(Aq)= (p^TA)q  上两式作差得:  (m-n)p^...
  • 特征值分解:特征值,特征向量,特征向量矩阵

    千次阅读 多人点赞 2019-01-19 09:57:26
    特征值和特征向量 特征向量矩阵 特征向量矩阵S,由矩阵A的所有线性无关的特征向量按列排列组成的矩阵。 特征值矩阵,有矩阵A的所有特征值放在对角线位置组成的对角矩阵。 特征值分解的物理意义 矩阵的...
  • 特征值和特征向量

    万次阅读 多人点赞 2015-05-22 22:09:22
    介绍特征向量和特征值在计算机视觉机器学习中有许多重要的应用。众所周知的例子是PCA(主成分分析)进行降维或人脸识别是特征脸。特征向量和特征值的一个有趣应用在我的另一篇有关误差椭圆的博文中提到。此外,...
  • 线性代数——特征值和特征向量

    千次阅读 2018-11-27 22:54:22
    线性方程 Ax=bAx=bAx=b 是稳定状态的问题,特征值在动态问题中有着巨大的重要性。du/dt=Audu/dt=Audu/dt=Au 的解随着时间增长、衰减...1. 特征值和特征向量 几乎所有的向量在乘以矩阵 AAA 后都会改变方向,某些特殊...
  • 特征向量 规则变换模式,并保留原数据的信息 特征值 变化强度 最大的特征值 保证数据更容易分开
  • 主成分分析PCA以及特征值和特征向量的意义

    万次阅读 多人点赞 2018-11-17 17:38:53
    定义: 主成分分析(Principal Component Analysis,PCA), 是一种统计方法。...这k维特征称为主成分,是重新构造出来的k维特征,而不是简单地从n维特征中去除其余n-k维特征。 简单解释: 具体的,假...
  • 特征值和特征向量的作用

    千次阅读 多人点赞 2019-03-04 21:13:44
    本文转自知乎大牛。 从定义出发,Ax=cx:A为矩阵,c为特征值,x为特征向量。 矩阵A乘以x表示,对向量x进行一次转换(旋转或拉伸)(是一种线性转换),而该转换的效果为常数c乘以向量x(即只进行拉伸)。 ...
  • 已知矩阵A,在MATLAB界面输入[x,y]=eig(A),可以...x的每一列为特征值对应的特征向量。 需要进行特征向量标准化时,可以输入x(:,1)/norm(x(:,1))将特征向量进行标准化,标准化的特征向量各个元素平方之和为1。 ...
  • 特征值和特征向量意义

    千次阅读 2018-12-13 17:46:51
    首先我们先把特征值和特征向量的定义复习一下: 定义:设A是n阶矩阵,如果数λ和n...如果想求出矩阵对应特征值和特征向量就是求式(2)的解了。 那么,问题来了,这个式子要怎么理解呢? 首先得先弄清矩阵的概...
  • 线性代数:如何求特征值和特征向量

    万次阅读 多人点赞 2019-10-31 14:09:11
    一、特征值和特征向量的定义 1 首先让我们来了解一下特征值和特征向量的定义,如下: 2 特征子空间基本定义,如下: END 二、特征多项式 1 特征多项式的定义,如下: 2 推论:...
  • 矩阵的特征值和特征向量

    千次阅读 2019-11-04 14:50:42
    6.1 矩阵的特征向量特征值 犹如世界上每个人都有自己的特点一样,每个矩 阵也有其内在的特性。可逆性、秩、初等变换的结果等属于矩阵的代数性质,而特征值、特征向量偏向于反映矩阵的几何特性。 A是n阶矩阵,x是n...
  • 对于实对称矩阵AAA,具有不同特征值λi、λj....\lambda _i 、 \lambda _j ....λi​、λj​....。 由Axi=λixiAx_i=\lambda _i x_iAxi​=λi​xi​,转置得xiTAT=xiTA=λixiTx_i^TA^T=x_i^TA=\lambda _i x_i^TxiT...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 123,837
精华内容 49,534
关键字:

不同特征值对应特征向量之和