精华内容
下载资源
问答
  • 如何理解线性代数

    千次阅读 2020-12-24 14:46:26
    1, 什么是线性代数 函数研究的是,输入一个数,经过函数运算之后,产出一个数。而有时候我们研究的问题太复杂,需要输入很多个数,经过运算之后,产出很多个数。这时候,线性代数应运而生。 很多个数,我们可以用...

    #入门教程贴

    0, 引言

    人类在探索每一个科学问题的时候,为了简化问题,都会把具体科学问题看作一个机器。给这个机器输入一个条件,机器会运转,对条件进行加工,然后输出一种现象。

    通过研究输入与输出,有时候可以推测出机器内部的构造,这就是所谓的科学。比如牛顿,他发现:给物体一个力,就能使物体产生一个加速度,力越大,加速度就越大。

    当然,有时候研究了输入与输出,依然没有搞清楚机器内部的原理,只是知道一个大概的规律,那么就干脆先不管内部原理,先把这个规律为自己所用。这就是所谓的工程。比如,人们通过做实验发现,给机翼一个气流,机翼就能够产生一个升力,人们并不能解释升力是怎么产生的,但是不妨碍自己使用,于是给一个驾驶舱装上两个翅膀,飞机就上天了。

    人类探索自然运行的原理,归根结底是想利用这些原理,对万物进行定量控制。

    定量控制的意思是说:牛顿写出《原理》这本书的时候,不能够含糊其辞的说,给物体很大的力,物体就能产生很大的加速度。而是必须告诉大众:给一个多少Kg的物体多少N的力能够产生多少

    的加速度。

    这时候,数学应运而生。简而言之,数学就是人类在解释这个世界是怎样运行的时候,人为发明的一种工具,有了这种工具,我们可以不用那么含糊其辞。

    于是,就有了函数。

    于是就有了F=Ma,于是就有了各种各样的公式、定理及定律。

    1, 什么是线性代数

    函数研究的是,输入一个数,经过函数运算之后,产出一个数。而有时候我们研究的问题太复杂,需要输入很多个数,经过运算之后,产出很多个数。这时候,线性代数应运而生。

    很多个数,我们可以用括号括起来,形成一个数组。在几何学上,数组被称作向量,向量就是一个有大小有方向的直线段。

    所以,线性代数就是:输入一段直线,经过加工之后,产出一段直线。

    线性的意思就是,你往机器里扔进去直线,产出的肯定也是直线。

    当然,在数学上,线性有着及其严格的定义,并不是像我刚才说的那么简单。不过,正由于线性的严格定义,才能够实现:输入一段直线,产出一段直线。

    与函数相类似,用图描述线性代数就是:

    输入叫向量,内部原理叫矩阵,输出叫向量。

    2, 矩阵是怎么对直线进行加工的?

    通过函数表达式y=5x+9我们可以一目了然地知道,输入的自变量x是怎样一步步被加工,最后输出因变量y的。

    同样,我们通过观察矩阵,也可以一目了然地知道,输入的直线是怎样一步步被加工的。

    假如输入的直线为[1,2]。

    插一句,向量[1,2]的全称其实是1i+2j,i和j叫做基向量。意思是说,我们目前所写出来的向量,是以这两个向量作为基本原料,拼凑组合出来的。

    假如用于加工向量的矩阵为[0,1 -1,0],

    那么这个矩阵所代表的加工过程就是,把基向量i,换成矩阵中的第一列,把基向量j换成矩阵中的第二列。然后再以新的基向量为原料,重新利用[1,2]拼凑一个新的向量。用新的基向量拼凑出来的新向量就是输出。

    通过展示矩阵对向量的加工过程,我们可以“看出”上面例子的解。

    下面,我们用熟悉的口诀“左行乘右列”来检验一下上面的答案是否靠谱。

    其实,计算所用的口诀就来源于上述加工过程。

    同理,稍微复杂一些的三维向量遇到三维矩阵后的加工过程如下图:

    3, 行列式是什么?

    矩阵对向量进行加工,行列式能够描述这种加工作用的强弱。

    上文提到,矩阵对向量加工是通过改变基向量来实现的。以二维为例,默认的基向量张成的面积为1,经过矩阵变换之后形成的新的基向量张成的面积变为了S,那么这个矩阵的行列式就为S。

    有时候,矩阵的行列式为0,说明新的基向量张成的面积为0,说明新的基向量发生了重合。

    有时候,矩阵的行列式为负数,说明线性空间发生了翻转。也就是说,本来,默认的两个基向量,j在i的逆时针方向,经过矩阵加工之后,线性空间发生了翻转,导致i在j的逆时针方向。如下图:

    4, 什么叫单位矩阵?

    矩阵能够对向量进行加工,产生一个新的向量。但有一种矩阵比较特殊,无论给它输入什么样的向量,加工后产生的向量都与原来的相同,这种矩阵叫单位矩阵。

    既然矩阵对向量的加工作用是通过改变基向量来实现的,如果想保持输入与输出相等,那么只需要保证矩阵不会改变基向量即可。

    所以,二阶单位矩阵,三阶单位矩阵以及n阶单位矩阵可写为:

    5, 什么叫逆矩阵?

    矩阵对向量具有加工作用,两个矩阵相乘,则表示的是两种加工作用的叠加。也就是说:

    如果上图中向量1等于向量3,那么就说明,向量经过矩阵1和矩阵2的加工之后,又变成了原来的自己。进一步说明,矩阵1和矩阵2对于向量的加工作用刚好相反。那么就说矩阵1和矩阵2互为逆矩阵。

    明白了原理,也就知道如何求解逆矩阵了。

    插个题外话:为什么行列式为0的矩阵没有逆矩阵?

    因为行列式如果为0,表明矩阵在在对向量变换的过程中,将向量空间压缩到了一个更低的维度上。以二维矩阵为例:

    向量降维后,将无法再还原回原来的样子。

    就好比有一个三维长方体,从大部分角度观察,都是一个三维结构,但是当正视俯视侧视时,你只能观察到一个二维矩形。我们是无法通过这个二维矩形的样子,来推测出原来的长方体的。

    6, 什么是秩

    矩阵可以将一个向量进行加工,变成另外一个向量。

    比如一个3阶矩阵,可以对很多三维向量进行加工,变成很多新的三维向量。

    有时候,所有的这些新的三维向量,最终都落在一条直线上,即1维。

    有时候,所有的新的三维向量最终都落在一个二维平面上,即2维。

    有时候,所有的新的三维向量最终都落在三维空间上,即3维。

    以上情况分别对应于秩为1,2,3。

    总之,秩就是描述这个矩阵会不会将输入的向量空间降维。如果没有降维,这种情况称为满秩。

    7, 什么是特征向量、特征值?

    矩阵能够对向量进行加工,变成一个新的向量。

    有时候会出现这种情况:

    对于某一个矩阵,输入一个向量,经过矩阵的加工后,新生成的向量与原来的向量共线。也就是说这个矩阵对这个特定的向量的加工过程中没有改变其方向。

    那么,这个不会被改变方向的向量叫做这个矩阵的特征向量。

    虽然不会被改变方向,但是改变了大小,新的向量长度是原来的向量的长度的

    倍,这个

    叫做特征向量的特征值。

    8,有所疏漏,写的不全,想听哪里在评论区留言。

    另外,

    我开了个公众号“陈二喜”,目前只有我一个粉丝,之后会同步知乎的回答。

    展开全文
  • 线性代数理解余弦定理,三角不等式,A-G不等式和柯西-许瓦兹不等式 向量的两种运算 scalar multiplication and addition,分别为数乘和加法。两种运算一起有个好听的名字叫linear combination,也就是线性组合。...

    从线性代数理解余弦定理,三角不等式,A-G不等式和柯西-许瓦兹不等式

    向量的两种运算

    scalar multiplication and addition,分别为数乘和加法。两种运算一起有个好听的名字叫linear combination,也就是线性组合。线性组合是线代的基石之一。比如v和w的线性组合表示为,其中a,b为常数
    a v → + b w → \begin{aligned} a\overrightarrow v + b\overrightarrow w \end{aligned} av +bw

    向量的三种表示方法

    1. []的形式,如下面这种

      [ 1 2 3 ] \begin{aligned}\left[ \begin{array}{l} 1\\ 2\\ 3 \end{array} \right]\end{aligned} 123

    2. arrow from 0 → \begin{aligned}\overrightarrow {\rm{0}} \end{aligned} 0

    3. point in the vector space ,如下图:
      在这里插入图片描述

    向量的内积与向量的长度

    内积:两个向量的内积定义为: v T w {v^T}w vTw

    v = [ 1 2 3 ] \begin{aligned} v = \left[ \begin{array}{l} 1\\ 2\\ 3 \end{array} \right] \end{aligned} v=123 w = [ 4 5 6 ] \begin{aligned}w = \left[ \begin{array}{l} 4\\ 5\\ 6 \end{array} \right]\end{aligned} w=456 v T w = 1 × 4 + 2 × 5 + 3 × 6 = 32 \begin{aligned}{v^{\rm{T}}}w = 1 \times 4 + 2 \times {\rm{5 + 3}} \times {\rm{6 = 32}}\end{aligned} vTw=1×4+2×5+3×6=32

    向量的长度为 ∣ ∣ v ∣ ∣ ||v|| v,且有 ∣ ∣ v ∣ ∣ 2 = v T v \begin{aligned} ||v|{|^2} = {v^T}v \end{aligned} v2=vTv,以上面为例, ∣ ∣ v ∣ ∣ 2 = 1 2 + 2 2 + 3 3 = 14 \begin{aligned}||v|{|^2} = {1^2} + {2^2} + {3^3} = 14\end{aligned} v2=12+22+33=14,其长度为 14 \begin{aligned}\sqrt {14} \end{aligned} 14

    单位向量:unit vector, u = v ∣ ∣ v ∣ ∣ \begin{aligned}u{\rm{ = }}\frac{v}{{||v||}}\end{aligned} u=vv,与v同方向的单位向量为 u = 1 14 [ 1 2 3 ] \begin{aligned}u = \frac{1}{{\sqrt {14} }}\left[ \begin{array}{l} 1\\ 2\\ 3 \end{array} \right]\end{aligned} u=14 1123

    向量的夹角: u T U = cos ⁡ θ \begin{aligned}{u^T}U = \cos \theta \end{aligned} uTU=cosθ,U也为单位向量。 cos ⁡ θ = v T w ∣ ∣ v ∣ ∣ ∣ ∣ w ∣ ∣ \begin{aligned}\cos \theta = \frac{{{v^{\rm{T}}}w}}{{||v||||w||}}\end{aligned} cosθ=vwvTw

    柯西-许瓦兹不等式

    根据向量的夹角公式,由于 − 1 ≤ cos ⁡ θ ≤ 1 \begin{aligned} - 1 \le \cos \theta \le 1 \end{aligned} 1cosθ1,推出许瓦兹不等式如下:
    ∣ v T w ∣ ≤ ∣ ∣ v ∣ ∣ . ∣ ∣ w ∣ ∣ \begin{aligned} |{v^T}w| \le ||v||.||w||\end{aligned} vTwv.w
    其代数表达形式为,下面的v和w为n维向量
    ( ∑ i = 1 n v i w i ) 2 ≤ ∑ i = 1 n v i 2 ∑ i = 1 n w i 2 \begin{aligned} {\left( {\sum\limits_{i = 1}^n {{v_i}{w_i}} } \right)^2} \le \sum\limits_{i = 1}^n {{v_i}^2} \sum\limits_{i = 1}^n {{w_i}^2} \end{aligned} (i=1nviwi)2i=1nvi2i=1nwi2

    A-G不等式(arithmetic-geometry inequality)

    二维:令 v = [ a b ] , w = [ b a ] \begin{aligned}v{\rm{ = }}\left[ \begin{array}{l} a\\ b \end{array} \right],w = \left[ \begin{array}{l} b\\ a \end{array} \right]\end{aligned} v=[ab],w=[ba],根据许瓦兹不等式可得
    2 a b ≤ a 2 + b 2 a b ≤ a + b 2 \begin{aligned} \begin{array}{l} 2ab \le {a^2} + {b^2}\\\displaystyle \sqrt {ab} \le \frac{{a + b}}{2} \end{array}\end{aligned} 2aba2+b2ab 2a+b
    n维的待证

    三角不等式(triangle inequality)

    ∣ ∣ a + b ∣ ∣ ≤ ∣ ∣ a ∣ ∣ + ∣ ∣ b ∣ ∣ \begin{aligned}||a + b|| \le ||a|| + ||b||\end{aligned} a+ba+b

    证明如下
    ∣ ∣ a + b ∣ ∣ 2 = ∣ ∣ a ∣ ∣ 2 + 2 a T b + ∣ ∣ b ∣ ∣ 2 \begin{aligned}||a + b|{|^2} = ||a|{|^2} + 2{a^T}b + ||b|{|^2}\end{aligned} a+b2=a2+2aTb+b2
    根据许瓦兹不等式易知 ∣ ∣ a ∣ ∣ 2 + 2 a T b + ∣ ∣ b ∣ ∣ 2 ≤ ( ∣ ∣ a ∣ ∣ + ∣ ∣ b ∣ ∣ ) 2 \begin{aligned}||a|{|^2} + 2{a^T}b + ||b|{|^2} \le {\left( {||a|| + ||b||} \right)^2}\end{aligned} a2+2aTb+b2(a+b)2,所以 ∣ ∣ a + b ∣ ∣ 2 ≤ ( ∣ ∣ a ∣ ∣ + ∣ ∣ b ∣ ∣ ) 2 \begin{aligned}||a + b|{|^2} \le {\left( {||a|| + ||b||} \right)^2}\end{aligned} a+b2(a+b)2,得证。如果a,b为标量同样也成立
    在这里插入图片描述

    余弦定理

    ∣ ∣ v − w ∣ ∣ 2 = ∣ ∣ v ∣ ∣ 2 − 2 v T w + ∣ ∣ w ∣ ∣ 2 = ∣ ∣ v ∣ ∣ 2 − 2 ∣ ∣ v ∣ ∣ . ∣ ∣ w ∣ ∣ cos ⁡ θ + ∣ ∣ w ∣ ∣ 2 \begin{aligned} ||v - w|{|^2} = &||v|{|^2} - 2{v^T}w + ||w|{|^2}\\\displaystyle =& ||v|{|^2} - 2||v||.||w||\cos \theta + ||w|{|^2} \end{aligned} vw2==v22vTw+w2v22v.wcosθ+w2

    平行四边形对角线与边长的关系

    从图中可以看到
    ∣ ∣ v − w ∣ ∣ 2 + ∣ ∣ v + w ∣ ∣ 2 = 2 ∣ ∣ v ∣ ∣ 2 + 2 ∣ ∣ w ∣ ∣ 2 \begin{aligned} ||v - w|{|^2} + ||v + w|{|^2} = 2||v|{|^2} + 2||w|{|^2}\end{aligned} vw2+v+w2=2v2+2w2
    从向量的角度很直观地知道了平行四边形对角线与边长的关系。

    展开全文
  • 在经过了这次的学习之后,我由衷地感慨,我以前学的线性代数是什么鬼呀!最近由于选修博士的课程《矩阵运算》。所以我重新在网上恶补了一遍《线性代数》的基本概念[1],对这门课有了全新的认识。现在想想我大学学的...

    我在上个月修了数值矩阵运算这门课 (Numerical Matrix Computing),对矩阵的变换和一些性质有了一定的理解。

    在这里总结一下自己的研究的一些心得。

    在经过了这次的学习之后,我由衷地感慨,我以前学的线性代数是什么鬼呀!

    最近由于选修博士的课程《矩阵运算》。所以我重新在网上恶补了一遍《线性代数》的基本概念[1],对这门课有了全新的认识。

    现在想想我大学学的线性代数,我真的会感慨,我之前都在学些什么呀!

    如果你觉得自己当初线性代数也是学的一团雾水,不妨接着往下看看,绝对让你能够透彻的理解线性代数!

    线性代数的本质

    先一句话先把最重要的东西说了,什么是线性代数?

    线性代数的本质,其实是一种高维空间上的变换。

    这句话虽然简单,但这句话具体什么意思呢。别急,我们引入一个很直观的例子来理解这个数学表达。

    拿二维空间中的小纸片人为例来说,小人在此:

    我对一个小人进行位移,拉伸的一系列线性操作,它可以变成另一个样子:

    这就是线性代数要做的一些事情。我对这个小人做的一些操作,就叫矩阵,也就是对这个对象的一些操作或者说映射。

    所以乍一看,这个问题好像并没有什么特别难的,为啥线性代数这么难呢。

    主要是很多的基本概念和实际的物理含义没有挂钩。

    接下来,我们就来讲讲线性代数中的各个名词和物理含义的联系。

    行列式

    首先第一个概念就是矩阵的行列式。还记得刚开始学习线性代数的时候,老师上来就咔咔给我们一顿求解矩阵的行列式。

    二阶矩阵的行列式是下面的这个公式,大家应该依稀还记得求矩阵的行列式的求法(不是定义),对角线相乘再相减:

    然而,我还记得一个学期的线性代数学完了,我连第一个问题都没有解决。那就是,老师,咱们为什么要求一个矩阵的行列式?

    为什么?

    为什么?

    在这里,我就来告诉大家,为什么要求解矩阵的行列式!

    还是举一个例子,这次我们把上面的小纸片人换成一个面积是1*1的小方块:

    我们用一个矩阵对它进行一顿操作,就得到了下面的样子:

    可以看到,经过了图中所示的矩阵的变换之后,我们之前的小方块变成了大一点的矩形,面积变成了3*2,也就是6。

    而我们再算算图中这个矩阵的行列式的数值,也是6。

    行列式的数值和矩阵变换之后的面积一样!

    朋友们,这不是巧合!

    我们可以再试验一个矩阵变化:

    我们用另一个矩阵对原来的小方块进行一顿操作,可以看到之前的小方块变成了一个斜一点的矩形。

    变换后的斜方形的面积是1,而图中这个矩阵变换的行列式的数值也是1。

    行列式的数值和矩阵变换之后的面积仍然一样!

    这!其实就是行列式的非常重要的物理意义!它其实就是矩阵变换带来的面积变化。

    我第一次看到这个概念的时候,觉得醍醐灌顶,原来行列式的意义可以这么理解!

    同时感慨,曾经我求解了不下一千个矩阵的行列式,原来自己根本不知道自己在求些什么东西!

    当然,上面的定义是不准确的,对于二维来说,行列式代表的就是面积变化,三维来说,行列式表征的就是体积变化了,推之高维空间亦然。这样就严谨一些了。

    逆矩阵

    现在我们应该知道了矩阵是一种变换,想想上面的矩阵变换,我们可以把一个小方块变成一个斜斜的方块。

    那么一定存在另一种矩阵的映射,能把这个斜斜的方块变回原来的小方块,是不是?

    所以逆矩阵的物理意义就出来了,如果有个矩阵能把经过变换之后的斜斜的这个方块:

    还原成为之前的小方块:

    那么它就是原来那个矩阵的逆矩阵。

    可以这么理解,逆矩阵就是一种对原矩阵的逆向变换。

    对于逆矩阵,在数学上,有这么个表达:

    A 是一个矩阵, A-1是A 的逆矩阵,它们相乘会得到一个单位矩阵。

    结合物理意义我们就能理解这个公式了:一个物体经过了A矩阵的变换,在经过A 的逆矩阵的变换,就等于保持不变(单位矩阵就是保持不变)。

    简单来说一句话,变过去又变回来,那就是没有变。

    这就是逆矩阵的性质。

    矩阵的秩

    如果说上面的东西还只是有点意思的话,那接下来讲的东西就要进入高潮了。

    由上面的论述,我们知道了逆矩阵是啥东西——就是一种反向变换。

    一切看似没啥问题。

    但是问题来了。我们喜欢折腾的数学家不久发现,有些矩阵变换没法求逆变换!

    这是为什么呢?

    这还要从矩阵的行列式说起。

    我们从上面知道了,行列式表征的一种面积的变化。但是我们会发现有很多矩阵的行列式的数值是0。

    啥意思呢?

    很不严谨地举一个例子,想想我们上面提到的那个小方块。

    现在有一种变换,让这个小方块的面积变换后变成零了。你觉得这是一个什么变换?

    不知道你猜出来没(反正我一开始是没有头绪),只有一种可能:

    这个小方块被压缩成了平面上的一个点或者一条线!

    以至于变换后的面积为零!

    这就是行列式为零的物理意义。

    借由这个物理意义,我们进一步可以知道:

    如果一个矩阵变换的行列式为零,代表这个变换将对目标进行降维(比如从平面变成点)。

    然后我们可以想象,一个物体维度一旦下降(比如从平面变成点),这个过程将不能逆转(从点重新恢复成平面)。

    这就是为什么有些矩阵变换不能求逆矩阵!

    进一步,我们就能得到线性代数里面最常用的一个结论:

    行列式为0的矩阵是不可逆矩阵,不可逆矩阵的行列式就是0。

    我第一次看到这个结论,内心是在咆哮的:

    这就是传说中的降维打击啊!

    科幻里面的东西原来就在身边,只是我一直没有去挖掘过!

    那么什么又是矩阵的秩呢?

    一句话解释就是,矩阵变换之后所给出的维度,就是矩阵的秩。

    什么意思,打个比方,很简单,如果对一个三维物体进行一个矩阵变换,变成了一维的,那么这个矩阵的秩就是1,如果得到的是二维的,那么这个矩阵的秩就是2。

    如果变换之后仍然是三维物体,那么这个矩阵的秩就是3,也叫做满秩(没有维度的损失)。

    前两种情况下,经过矩阵变换后,维度都会下降,信息都会丢失。可以想象,他们相应的行列式都为零——对于一个三维物体,无论是变成了直线还是点,面积都是变成了0。

    所以我们又得到了一个重要结论:

    只有满秩的矩阵(变换之后维度不变)行列式才不为零。

    我们可以看到,用物理含义来看这些定义,会显得格外通俗易懂。

    特征根与特征向量

    接下来我们来讲讲线性代数里面最最核心的最经典的一个问题:

    求解矩阵的特征根和特征向量。

    我刚开始学习矩阵这门课的时候,老师啥也没说,整节课就围绕着求解一个矩阵的特征向量和特征根展开了。

    遗憾的是,我再次懵圈了,因为我连一个最基本的问题都没搞明白,嘿,老师,我们为啥要求解特征根和特征向量呀?

    啥是矩阵的特征根?

    啥事矩阵的特征向量?

    啥?啥?啥?

    于是我下课自己查看了相关资料之后,网友的一通介绍让我豁然开朗:

    什么是特征向量呢,就是在高维空间中,经过了某个矩阵变换之后,保持不变的向量,就是这个矩阵的特征向量。

    看不懂?

    没关系,一如既往地,我们还是来举个例子。如下图,假设我们有一对向量是下面这个样子的:

    经过了一个矩阵变换之后就变成了这个样子:

    然后我们再随意的取另一个向量,黄色的箭头:

    看看它经过了这个矩阵变换之后的样子:

    可以看到,这个黄色的向量经过矩阵变换之后,方向和大小都改变了,注意那个粉色的延长线。

    我们接下来再看一个经过了变换之后,方向可以不改变的向量,图中的黄色箭头:

    我们可以看到,经过了矩阵变换之后,这个黄色的箭头的方向保持了不变!

    重点来了!!!

    从物理意义来讲,这种经过了矩阵变换之后,方向依然能保持不变的向量,就是这个矩阵的特征向量,这些特征向量经过变换后大小的改变,就是该特征向量的对应特征值了。

    为什么叫这个矩阵的特征向量呢,数学家说了,这是因为咱们只用这一个向量,就能代表这个矩阵的变换,所以叫做特征向量。

    可能你又要问了,特征向量有啥用呢?

    好的,例子再次登场!

    如下图,我们有一个立方体的物体:

    我们现在对这个物体进行一波3D 旋转,得到下面这个样子:

    虽然我告诉旋转的过程是,红的那一面从右边转到了左边。

    但是你可能还是很难想象它到底是怎么转过来的,对吧?

    计算机也很难想到!

    然后,怎么办呢?

    为了直观起见,我们可以想象一下这给它添加一个旋转轴,如下图:

    它旋转的时候,就是围绕着这个轴来转的:

    你可能会说,行吧,好像能想象出来了。

    但是旋转就旋转吧,和特征向量有啥关系呢。

    人数学家说了,这个旋转其实就是一种矩阵变换,而这个轴就叫做这个旋转变换的特征向量!

    因为在整个变换中,只有这个轴的方向是没有改变的!

    也就是说,我们找到了这个轴,也就是特征向量,我们就找到了这个旋转,也就是矩阵变换的最简洁的表征方法!

    基于上述的这个理论,在现代的矩阵求解特征向量的运算中,有一个叫 Power 迭代法的算法被广泛用于计算机求解矩阵的特征向量。

    它的原理就是基于——特征向量就是,经过矩阵变换后,方向保持不变的向量。

    Power 迭代法它具体是怎么进行求解一个矩阵的特征向量的呢?非常简单。

    我们首先任意选一个向量,对它进行矩阵的变换,然后得到一个新的向量,我们再对这个新的向量进行矩阵变换,如此反复。我们可以想见,经过了无数次的矩阵变换后,向量会趋近于不变。而这就是特征向量的定义——经过矩阵变换后,方向保持不变的向量。

    以上,就是我在课余时间对线性代数物理含义的一些总结。

    总结

    通过线性代数的学习,我的收获很大。一方面,我发现学习一定要多问为什么,把整个事情的来龙去脉摸清楚。如果只是一知半解,那么不仅学的知识很不牢固,学习的时候也会很枯燥。

    另一方面,借用万门大学(一个网上课堂)的老师的一句话来说就是:

    所以我们学的越多,我们发现自己不懂的东西越多,但是我们的知识体系变大,仍然是一件有趣的事情,因为它可以更好的帮助我们做决策。

    以及如果我们不去扩大自己的知识体系,生命实在是太无聊了,翻来覆去就那几种需求。

    多多学习新的知识,探索别人没有发现过的乐趣,真的能让人感受快乐。

    [1] https://www.bilibili.com/video/av6540378/返回搜狐,查看更多

    展开全文
  • 从空间中理解线性代数

    多人点赞 2021-11-05 09:28:09
    线性代数-从空间中理解总结向量线性组合空间的基 Basis张成的空间 Span线性相关和线性无关向量空间的一组基变换线性变换数值描述线性变换复合变换行列式矩阵的用途线性方程组逆矩阵列空间零空间秩非方阵基变换基变换...

    总结

    空间中不共线的两个不为零向量都可以表示空间中的任意一个向量。但是这种向量太多了,我们选一个特殊点的,i=[1 0]和j=[0 1]作为单位向量,i和j的拉伸与相加可以组成笛卡尔坐标系中的任意一个向量。给定向量(基)线性组合的向量的集合,被称为给定向量(基)张成的空间。第三个向量u落在前两个向量v和w张成的空间中。那这些向量线性相关,也就是说向量没有给张成的空间增加新的维度。如果向量线性无关,比如w张成的空间是一维的,向量v不落在w张成的空间中,那么v和w张成的空间就变成了二维平面,向量给张成的空间增加了新的维度。可见向量空间的一组基,是张成该空间的线性无关向量的集合。变换也就相当于函数:接收内容,输出结果。对于线性变换,可以理解为直线在变换后仍然保持为直线,不能有所弯曲,而且原点必须保持固定。可以用矩阵描述线性变换,将变换后的基向量坐标分别写到矩阵的每一列。一个v向量乘以矩阵,可以得到变换后的v,而且可以根据变换后的i和j推断出来v的位置。如果说两个矩阵相乘,那么也就是进行了一次复合变换。线性变换将空间拉伸或挤压,想要测量变换对空间有多少拉伸或挤压,那么我们就可以求矩阵的行列式,也就是线性变换改变面积的比例。矩阵的列,是基向量变换后的位置,变换后,基向量张成的空间,就是所有可能的变换结果。经过一个变换,空间被压缩到低维,就导致一系列向量变换后成为零向量。变换后落在原点的向量的集合叫做矩阵的零空间。秩也就是变换后空间的维度,也就是矩阵的列张成的空间的维度。空间中同一个向量可以用不同语言描述,区别就在于坐标系选取的不同。坐标描述,依赖于所选的基向量。如果说使用不同的基向量描述同一个东西,描述的形式是不同的。那么如何在不同坐标系之间进行转化?可以用笛卡尔坐标系的语言表达别的坐标系的的基向量。以笛卡尔坐标系语言描述的别的坐标系的基向量作为列,形成一个基变换矩阵。通过这个矩阵,可以将别的坐标系语言描述的向量,转换成笛卡尔坐标系语言描述的向量。一个线性变换作用于一个向量,大部分向量在变换中都离开了它原来张成的空间,但还有一些特殊的向量仍然留在他们张成的空间里,这意味着矩阵对它的作用仅仅是拉伸或压缩,这些特殊向量就被称为变换的特征向量,特征值也就是特征向量在变换中拉伸或压缩的比例。如果变换有许多特征向量,多到能张成全空间,那就可以变换坐标系,使这些特征向量就是基向量。在另一个坐标系中表达当前坐标系描述的变换:首先通过基变换矩阵,用我们的语言描述另一个坐标系中的基向量,然后左乘线性变换矩阵,用我们的语言描述线性变换,然后再左乘基变换矩阵的逆,得到用另一个坐标系语言描述的线性变换。最终得到的变换是从新基向量所构成的坐标系角度看的。特征向量作为基向量的到的新的矩阵是对角的,并且对角元为对应的特征值,因为它所处坐标系的基向量在变换中只进行了缩放。

    线性代数远不止这些空间中直观的运用,在模糊控制领域,同样用到了矩阵,只不过那里面矩阵的运算变成了取交集、并集。空间中理解线性代数是片面的,但有助于更好的认知。

    向量

    数学角度:

    向量可以是任何东西,只需要保证:两个向量相加及数字与向量相乘是有意义的即可。

    物理角度:

    向量是空间中的箭头、决定一个向量的是:它的长度和它所指的方向。

    计算机角度:

    向量是有序的数字列表、向量的维度等于“列表”的长度。

    坐标系:

    把向量至于坐标系中,坐标正负表示方向,原点为起点,可完美把两个不同的角度融合

    向量加法:

    物理:首尾相连 Motion

    计算机:坐标相加。
    向量乘法:

    物理:缩放 Scaling

    计算机:坐标和比例相乘。

    函数也是向量:
    ( f + g ) ( x ) = f ( x ) + g ( x ) ( 2 f ) ( x ) = 2 f ( x ) (f+g)(x) = f(x)+g(x)\\(2f)(x) = 2f(x) (f+g)(x)=f(x)+g(x)(2f)(x)=2f(x)
    函数相加、相乘和向量对应坐标相加、相乘很相似,只不过它有无穷多个坐标要相加、相乘。

    函数的线性变换:
    d d x L ( 1 9 x 3 ) = 1 3 x 2 − 1 \frac{d}{dx}L(\frac{1}{9}x^{3})=\frac{1}{3}x^{2}-1 dxdL(91x3)=31x21
    线性的定义:满足以下两条性质。
    L ( v ⃗ + w ⃗ ) = L ( v ⃗ ) + L ( w ⃗ ) L ( c v ⃗ ) = c L ( v ⃗ ) L(\vec v+\vec w)=L(\vec v)+L(\vec w)\\ L(c\vec v)=cL(\vec v) L(v +w )=L(v )+L(w )L(cv )=cL(v )
    用矩阵表示求导:

    当前空间:全体多项式。

    给空间赋予坐标含义,取一个基:取x的不同次幂作为基函数,基函数集无穷大。

    在这里插入图片描述

    怎么构建变换矩阵:

    求每一个基函数的导数,把结果放在对应列。

    向量空间:

    让所有已经建立好的理论和概念适用于一个向量空间,必须满足八条公理。

    线性组合

    空间中不共线的两个不为零向量都可以表示空间中的任意一个向量。
    a v ⃗ + b w ⃗ a \mathbf{\vec v} + b \mathbf{\vec w} av +bw
    线性:如果你固定其中一个标量,让另一个标量自由变化,所产生的向量终点会描出一条直线。

    在这里插入图片描述

    空间的基 Basis

    笛卡尔坐标系,有一个最直观一组基:
    { ı ^ , ȷ ^ } \{{\hat {\imath}} ,{\hat {\jmath}} \} {ı^,ȷ^}
    即单位向量:
    ı ^ = ( 1 , 0 ) {\hat {\imath}}=(1,0) ı^=(1,0)

    ȷ ^ = ( 0 , 1 ) \hat {\jmath} =(0,1) ȷ^=(0,1)

    通过i和j的拉伸与相加可以组成笛卡尔坐标系中的任意一个向量。

    张成的空间 Span

    给定向量(基)线性组合的向量的集合,被称为给定向量(基)张成的空间。

    举个例子:v与w全部线性组合构成的向量集合,叫做张成的空间。(a与b在实数范围内变动)
    a v ⃗ + b w ⃗ a \mathbf{\vec v} + b \mathbf{\vec w} av +bw
    仅通过向量加法和向量数乘两种计算,能获得所有可能向量的集合。

    线性相关和线性无关

    举个例子:

    第三个向量u落在前两个向量v和w张成的空间中。那这些向量线性相关。
    u ⃗ = a v ⃗ + b w ⃗ \mathbf{\vec u} = a \mathbf{\vec v} + b \mathbf{\vec w} u =av +bw

    如果说,向量给张成的空间增加了新的维度,那这些向量线性无关。

    举个例子:

    w张成的空间是一维的。

    向量v不落在w张成的空间中,那么v和w张成的空间就变成了二维平面。
    v ⃗ ≠ b w ⃗ a v ⃗ + b w ⃗ \mathbf{\vec v} \neq b \mathbf{\vec w} \\ a \mathbf{\vec v} + b \mathbf{\vec w} v =bw av +bw

    向量空间的一组基

    向量空间的一组基,是张成该空间的 线性无关向量 的集合。

    变换

    变换也就相当于函数:接收内容,输出结果

    线性变换

    直线在变换后仍然保持为直线,不能有所弯曲。

    原点必须保持固定。

    保持网格线平行且等距分布的变换。

    在这里插入图片描述

    数值描述线性变换

    如果i和j没有进行变换,那么v也没有变换。
    [ 1 0 0 1 ] [ x y ] = [ x y ] \begin{bmatrix} \color{green}1&\color{red}0 \\ \color{green}0&\color{red}1 \end{bmatrix}\begin{bmatrix}x\\y\end{bmatrix}=\begin{bmatrix}x\\y\end{bmatrix} [1001][xy]=[xy]

    绿色代表i变换后的向量,红色代表j变换后的向量。

    可以根据变换后的i和j推断变换后的v。
    [ a b c d ] [ x y ] = x [ a c ] + y [ b d ] ⏟ 直观的部分这里 = [ a x + b y c x + d y ] \begin{bmatrix} \color{green}{a}&\color{red}b \\ \color{green}c&\color{red}d \end{bmatrix} \begin{bmatrix}x\\y\end{bmatrix} = \underbrace{x \begin{bmatrix}\color{green}a\\\color{green}c \end{bmatrix} + y \begin{bmatrix} \color{red}b\\\color{red}d\end{bmatrix}}_{\text{直观的部分这里}} = \begin{bmatrix} \color{green}{a}\color{black}{x}+\color{red}{b}\color{black}{y}\\\color{green}{c}\color{black}{x}+\color{red}{d}\color{black}{y}\end{bmatrix} [acbd][xy]=直观的部分这里 x[ac]+y[bd]=[ax+bycx+dy]
    在这里插入图片描述

    矩阵,一种描述线性变换的语言。

    复合变换

    对一个向量先进行一次旋转变换,再进行一次剪切变换。

    在这里插入图片描述

    求一个复合矩阵,

    在这里插入图片描述

    行列式

    线性变换将空间拉伸或挤压。

    想要测量变换对空间有多少拉伸或挤压,可以测量一个给定区域面积增大/减小的比例。

    因为网格线保持平行且等距分布,只需知道单位正方形变化的比例,就可知其它任意区域面积变换的比例。

    变换的行列式也就是线性变换改变面积的比例。

    在这里插入图片描述

    正负表达的是方向,j起始状态在i的左侧,如果经过变换,变为j在i的右侧,就添加负号。

    只要检验一个矩阵行列式是否为0,就能了解矩阵代表的变换是否将空间压缩到更小维度上。

    行列式计算:

    在这里插入图片描述

    矩阵的用途

    描述对空间的操作。

    解线性方程组。

    线性方程组

    一般形式:
    A x ⃗ = v ⃗ \mathbf A \mathbf{\vec x} = \mathbf{\vec v} Ax =v
    在这里插入图片描述

    如果这个方程组成立,也就意味着,x经过A矩阵变换后,落在v上。

    在这里插入图片描述

    如果说矩阵行列式为0,也就是说,空间降维了。

    举个例子,二维矩阵,行列式为0,那么x经过这个矩阵变换,降维了成了一条直线,这个直线和v共线的话,线性方程组才有可能有解。

    逆矩阵

    已经变换过的i和j通过逆矩阵变换,能够变回原来的i和j。

    在这里插入图片描述

    逆矩阵乘原矩阵等于恒等变换。
    A A − 1 = I \mathbf A \mathbf A^{-1} = \mathbf I AA1=I

    列空间

    矩阵的列:基向量变换后的位置。

    变换后,基向量张成的空间,就是所有可能的变换结果。

    列空间:矩阵的列 张成的空间。

    举个例子:下图列空间是个一维的。

    在这里插入图片描述

    零空间

    经过一个变换,空间被压缩到低维,就导致一系列向量变换后成为零向量。

    举个例子,看下图第一个二维降到一维的,和这个直线不同方向上所有向量被压缩到原点。

    变换后落在原点的向量的集合叫做矩阵的零空间。

    在这里插入图片描述

    秩:变换后空间的维度,也就是矩阵的列 张成的空间的维度。

    举个例子:

    矩阵秩为1,经过这一矩阵的变换后,向量落在一条直线上。

    秩为2,变换后,向量落在二维平面上。

    非方阵

    举个例子:
    [ 2 0 − 1 1 − 2 1 ] \begin{bmatrix} 2&0 \\ -1&1\\ -2&1 \end{bmatrix} 212011
    上面这个矩阵,列空间是三维空间中过原点的二维平面。

    两列意味着输入空间有两个基向量,三行说明每个基向量变换后用三个独立的坐标描述。

    通过这个矩阵,能做到输入二维向量,输出三维向量。

    基变换

    我们一般用的基向量是相互垂直长度为1 的i和j,分别指向上方和右方

    如果说使用不同的基向量。

    举个例子:

    火星人使用的基向量为b1和b2,分别指向右上方和左上方。

    黄箭头向量,用我们地球人使用的基向量表示如下:

    在这里插入图片描述

    但是,用火星人使用的基向量表示如下:

    在这里插入图片描述

    注意,这个黄箭头在空间里面没动,由于基向量不同,这个黄箭头的表示也不同。

    也就是说,向量[-1 2],在火星人眼里,是这样的:

    在这里插入图片描述

    向量[-1 2],在地球人眼里,是这样:

    在这里插入图片描述

    也就是说,同样的描述,未必就是一个东西。

    在地球人的眼中,火星人的基向量:

    在这里插入图片描述

    但是在火星人的坐标系中,他们的基向量:

    在这里插入图片描述

    空间中同一个向量可以用不同语言描述。

    在这里插入图片描述

    火星人和地球人坐标原点重合。坐标轴的方向和网格间距和地球人有所不同,这依赖于火星人对基的选择。

    如何在不同坐标系之间进行转化?

    举个例子:

    火星人用[-1 2]表示一个向量,那么这个向量在地球人的坐标系中该如何描述。

    在这里插入图片描述

    地球人的坐标系中,b2=[-1 1] b1=[2 1]

    在这里插入图片描述

    在地球人的坐标系中可以这么表示这个向量:
    − 1 [ 2 1 ] + 2 [ − 1 1 ] = [ − 4 1 ] -1\begin{bmatrix} 2 \\ 1 \end{bmatrix}+ 2\begin{bmatrix} -1 \\ 1 \end{bmatrix}= \begin{bmatrix} -4 \\ 1 \end{bmatrix} 1[21]+2[11]=[41]
    也就是说:
    [ 2 − 1 1 1 ] [ 1 2 ] = [ − 4 1 ] \begin{bmatrix} 2&-1 \\ 1&1 \end{bmatrix} \begin{bmatrix} 1 \\ 2 \end{bmatrix}= \begin{bmatrix} -4 \\ 1 \end{bmatrix} [2111][12]=[41]
    矩阵的列,就是,用地球人的语言表达火星人的基向量。

    最后实现了把火星人认为的[-1 2]这个向量,转换成我们认为的[-4 1]这个向量。这个向量在空间中是没有变动的,只不过我们在不同的参考系下,看到的这个向量是不同的。

    基变换矩阵

    [ 2 − 1 1 1 ] \begin{bmatrix} 2&-1 \\ 1&1 \end{bmatrix} [2111]

    以火星人的基向量作为列的基变换矩阵。这个基向量是用地球人的坐标描述的。

    通过这个矩阵,可以将火星人语言描述的[-1 2],转换成地球人的语言描述,也就是[-4 1]。

    现在反过来:

    地球人坐标系中一个向量是[3 2],那么这个向量在火星人坐标系中是如何表示的?

    通过求基变换矩阵的逆:
    [ 2 − 1 1 1 ] − 1 = [ 1 / 3 1 / 3 − 1 / 3 2 / 3 ] \begin{bmatrix} 2&-1 \\ 1&1 \end{bmatrix}^{-1}= \begin{bmatrix} 1/3&1/3 \\ -1/3&2/3 \end{bmatrix} [2111]1=[1/31/31/32/3]
    用这个基变换矩阵的逆乘以[3 2],就可以知道用火星人语言描述的相同向量。
    [ 1 / 3 1 / 3 − 1 / 3 2 / 3 ] [ 3 2 ] = [ 5 / 3 1 / 3 ] \begin{bmatrix} 1/3&1/3 \\ -1/3&2/3 \end{bmatrix} \begin{bmatrix} 3 \\ 2 \end{bmatrix}= \begin{bmatrix} 5/3 \\ 1/3 \end{bmatrix} [1/31/31/32/3][32]=[5/31/3]
    以上就是在坐标系之间对单个向量的描述进行相互转化。

    对于一个线性变换,比如逆时针旋转90度,用矩阵代表它的时候,是在跟踪i和j的去向。

    i变换后的坐标是[0 1],j变换后的坐标是[-1 0],这些坐标成为矩阵的列。
    [ 0 − 1 1 0 ] \begin{bmatrix} 0&-1 \\ 1&0 \end{bmatrix} [0110]
    这种表示与我们对基向量的选择相关。跟踪我们所选的i和j,并且在我们自己的坐标系中记录他们的去向。

    那么火星人该如何描述空间90度旋转。

    在这里插入图片描述

    在这里插入图片描述

    火星人想要的矩阵,需要代表它的基向量的去向。

    火星人语言描述的向量:
    [ − 1 2 ] \begin{bmatrix} -1 \\ 2 \end{bmatrix} [12]
    用基变换矩阵转换成我们的语言,用地球人的语言去描述这个向量:

    矩阵的列指的是,用我们的语言描述火星人的基向量。
    [ 2 − 1 1 1 ] [ − 1 2 ] \begin{bmatrix} 2&-1 \\ 1&1 \end{bmatrix} \begin{bmatrix} -1 \\ 2 \end{bmatrix} [2111][12]
    左乘线性变换矩阵:

    给出的是,用我们的语言描述的线性变换后的向量。
    [ 0 − 1 1 0 ] [ 2 − 1 1 1 ] [ − 1 2 ] \begin{bmatrix} 0&-1 \\ 1&0 \end{bmatrix} \begin{bmatrix} 2&-1 \\ 1&1 \end{bmatrix} \begin{bmatrix} -1 \\ 2 \end{bmatrix} [0110][2111][12]
    左乘基变换矩阵的逆:

    得到用火星人语言描述的变换后的向量。
    [ 2 − 1 1 1 ] − 1 [ 0 − 1 1 0 ] [ 2 − 1 1 1 ] [ − 1 2 ] \begin{bmatrix} 2&-1 \\ 1&1 \end{bmatrix}^{-1} \begin{bmatrix} 0&-1 \\ 1&0 \end{bmatrix} \begin{bmatrix} 2&-1 \\ 1&1 \end{bmatrix} \begin{bmatrix} -1 \\ 2 \end{bmatrix} [2111]1[0110][2111][12]
    也就是说,三个矩阵复合,给出火星人语言描述的线性变换矩阵。

    这个矩阵接收火星人语言描述的向量,输出火星人语言描述的变换后的向量。
    [ 2 − 1 1 1 ] − 1 [ 0 − 1 1 0 ] [ 2 − 1 1 1 ] v ⃗ \begin{bmatrix} 2&-1 \\ 1&1 \end{bmatrix}^{-1} \begin{bmatrix} 0&-1 \\ 1&0 \end{bmatrix} \begin{bmatrix} 2&-1 \\ 1&1 \end{bmatrix} \mathbf{\vec v} [2111]1[0110][2111]v
    v乘以这个矩阵,结果就是在火星人的坐标系中让v旋转90度。

    下面这个表达式,暗示一种数学上的转移作用。中间的矩阵M代表我们所见到的变换,外侧两个矩阵代表转移作用,视角上的变化。
    A − 1 M A A^{-1}MA A1MA
    三个矩阵乘积,也就是,从他人角度看的同一个变换。

    特征向量 特征值

    对于一个线性变换:
    [ 3 1 0 2 ] \begin{bmatrix} 3&1 \\ 0&2 \end{bmatrix} [3012]
    让它作用于一个向量。

    大部分向量在变换中都离开了它原来张成的空间。以下图左侧为例,离开了它原来所在的那条直线。

    但是还有一些特殊向量,仍然留在他们张成的空间里,如下图右侧。

    在这里插入图片描述

    一个向量经过矩阵的变换,仍然留在他们张成的空间,意味着矩阵对它的作用仅仅是拉伸或压缩,它就像一个标量。

    对于上面那个线性变换,基向量i就是这样一个特殊的向量,i张成的空间是x轴,经过变换,i变成了三倍,仍然留在x轴。

    而且x轴上任何其它向量也是被拉伸为原来3倍。

    向量[-1 1]在变换后也留在自己张成的空间,最终被拉伸为原来的2倍。处在[-1 1]所在直线上其他任何一个向量也是被拉伸为原来的2倍。

    在这里插入图片描述

    对上述线性变换而言,以上就是经过这一线性变换,仍然留在他们张成空间里的向量。一个是x轴上的向量,另一个是[-1 1]所在对角线上的向量。

    这些特殊向量就被称为变换的特征向量。

    特征值:特征向量在变换中拉伸或压缩的比例。

    特征值为负数:经过矩阵的线性变换,这个特征值对应的特征向量被反向。

    如果说把矩阵的列看做变换后的基向量,他们这个矩阵就是个基变换矩阵。

    可以由下图发现,经过基变换矩阵,特征向量仍然在它原来张成的空间里,位置没发生变动。

    在这里插入图片描述

    在这里插入图片描述

    用符号表示特征值和特征向量:
    A v ⃗ = λ v ⃗ \mathbf A \mathbf{\vec v} = \lambda \mathbf{\vec v} Av =λv
    A代表某个变换的矩阵,v是特征向量,λ是特征向量的特征值。
    A v ⃗ − ( λ I ) v ⃗ = 0 ⃗ \mathbf A \mathbf{\vec v}- (\lambda I)\mathbf{\vec v}= \mathbf{\vec 0} Av (λI)v =0
    转换成:v与新矩阵相乘结果为零向量。
    ( A − λ I ) v ⃗ = 0 ⃗ (\mathbf A - \lambda I)\mathbf{\vec v}= \mathbf{\vec 0} (AλI)v =0
    当这个新矩阵代表的变换将空间压缩到低维度,才存在非零向量v,使矩阵和它的乘积为0向量。

    在这里插入图片描述

    如上图,向量经过变换后,压缩到原点成为零向量。

    在这里插入图片描述

    可以找使矩阵的行列式为0的λ。矩阵行列式为0,表示变换将空间压缩到低维度。

    上图,λ=1时,这个矩阵将空间压缩到一条直线上,也就是说存在非零向量v通过这个矩阵变成零向量。
    ( A − λ I ) v ⃗ = 0 ⃗ (\mathbf A - \lambda I)\mathbf{\vec v}= \mathbf{\vec 0} (AλI)v =0

    对于矩阵:
    [ 3 1 0 2 ] \begin{bmatrix} 3&1 \\ 0&2 \end{bmatrix} [3012]
    为了求特征值λ,将对角元减去λ,当矩阵的行列式为零时,λ才会是特征值,然后推断出可能的λ。
    d e t ( [ 3 − λ 1 0 2 − λ ] ) = ( 3 − λ ) ( 2 − λ ) = 0 det(\begin{bmatrix} 3-\lambda&1 \\ 0&2-\lambda \end{bmatrix})=(3-\lambda)(2-\lambda)=0 det([3λ012λ])=(3λ)(2λ)=0
    将λ的值带入矩阵中,然后求解出经过这个矩阵变换后,成为0的向量。
    [ 3 − 2 1 0 2 − 2 ] [ x y ] = [ 0 0 ] \begin{bmatrix} 3-2&1 \\ 0&2-2 \end{bmatrix} \begin{bmatrix} x \\ y\end{bmatrix}= \begin{bmatrix} 0 \\ 0\end{bmatrix} [320122][xy]=[00]
    然后可以发现,所有解全部落在向量[-1 1]张成的对角线上。

    特征向量是不唯一的,只有特征值唯一。

    然后原始矩阵:
    [ 3 1 0 2 ] \begin{bmatrix} 3&1 \\ 0&2 \end{bmatrix} [3012]
    将特征向量拉伸为原来2倍。

    二维线性变换不一定有特征向量,如下矩阵,实现90度旋转的变换。
    [ 0 1 − 1 0 ] \begin{bmatrix} 0&1 \\ -1&0 \end{bmatrix} [0110]
    它没有特征向量,因为每一个向量都发生旋转、离开它张成的空间。计算他的特征值,发现没有实数解。

    特征基

    如果基向量是特征向量。

    比如矩阵:
    [ − 1 0 0 2 ] \begin{bmatrix} -1&0 \\ 0&2 \end{bmatrix} [1002]
    它的特征向量是i、j的话,i的特征值就是-1,j的特征值就是2。

    对角矩阵:除了对角元以外,其他元素均为0的矩阵。

    所有基向量都是特征向量,矩阵的对角元是他们所属的特征值,

    对角矩阵,多次与自己相乘,结果更易计算。

    如果变换有许多特征向量,多到能张成全空间。

    那就可以变换坐标系,使这些特征向量就是基向量。

    在另一个坐标系中表达当前坐标系描述的变换:

    首先通过基变换矩阵,用我们的语言描述另一个坐标系中的基向量,然后左乘线性变换矩阵,用我们的语言描述线性变换,然后再左乘基变换矩阵的逆,得到用另一个坐标系语言描述的线性变换。最终得到的变换是从新基向量所构成的坐标系角度看的。

    这个新矩阵是对角的,并且对角元为对应的特征值。因为它所处坐标系的基向量在变换中只进行了缩放。

    在这里插入图片描述

    计算:
    [ 3 1 0 2 ] 100 \begin{bmatrix} 3&1 \\ 0&2 \end{bmatrix}^{100} [3012]100
    可以先变换到特征基,在那个坐标系计算一百次幂,然后转换回标准坐标系。

    不是所有矩阵都能对角化,就比如:
    [ 1 1 0 1 ] \begin{bmatrix} 1&1 \\ 0&1 \end{bmatrix} [1011]
    它的特征向量全在x轴上,不能张成全空间。

    关于坐标

    我们所处的空间独立于坐标存在。

    坐标描述,依赖于所选的基向量。

    行列式和特征向量与所选坐标系无关。

    行列式,变换对面积的缩放比例。

    特征向量,在变换中留在它所张成空间中的向量。

    这两者暗含于空间中。自由选取坐标系也不会改变他们最根本的值。

    一个线性变换可以通过它对基向量的作用来描述。

    求一个向量变换后的结果,实际上就是求出:变换后的基向量,以相同方式进行线性组合的结果。

    参考:3Blue1Brown 线性代数的本质

    展开全文
  • 而且我也注意到初次学习线性代数的学生往往对这一科目的理解很肤浅。学生在教室中学到的可能是如何进行各种各样的计算。比如矩阵乘法、行列式的计算。但是结果很可能是学生并非真正理解为什么矩阵乘法要如此定义。也...
  • 本文主要内容转载自微信公众号:编程珠玑 原文链接 先谈一谈我为什么要写这...在博主还没有意识到问题的时候,脑子里线性代数的知识大概可以罗列如下: 一. 线性方程组 研究对象:线性方程组的解的结构,具体实现为高斯
  • 编程与线性代数

    2021-05-24 03:43:14
    很多人学过以后一直停留在知其然不知 其所以然的阶段,若干年之后接触图形编程或机器学习等领域才发现线性代数的应用无处不在,但又苦于不能很好地理解和掌握。的确,多数人很容易理解初等数学 的各种概念,函数、...
  • 原标题:十分钟理解线性代数的本质我在上个月修了数值矩阵运算这门课 (Numerical Matrix Computing),对矩阵的变换和一些性质有了一定的理解。在这里总结一下自己的研究的一些心得。在经过了这次的学习之后,我由衷...
  • 在大学数学学科中线性代数是最为抽象的一门课从初等数学到线性代数思维跨度比微积分和概率统计要大得多大多数小伙伴学过以后一直停留在知其然不知其所以然的阶段若干年之后接触图形编等领域才发现线性代数的应用...
  • 关于线性代数理解

    2021-05-13 22:04:43
    关于线性代数理解 目录 关于线性代数理解 对向量的理解 对矩阵的理解 对线性空间的理解 对向量的理解 物理中:向量是空间中的一个箭头,决定一个向量的是他的长度与方向 计算机中:向量是有序的数字...
  • 点上方蓝字人工智能算法与Python大数据获取更多干货在右上方···设为星标★,第一时间获取资源仅做学术分享,如有侵权,联系删除转载于 :机器之心你的线性代数,过了没?不论是结构力学...
  • 在大学数学学科中线性代数是最为抽象的一门课从初等数学到线性代数思维跨度比微积分和概率统计要大得多大多数小伙伴学过以后一直停留在知其然不知其所以然的阶段若干年之后接触图形编等领域才发现线性代数的应用...
  • 这次我们讲一下,关于python在数学中线性代数中的一些应用,不过,博主这次是使用numpy中的一些函数直接进行的运算,在之后,博主打算出一系列使用不调用的方式进行求解矩阵逆矩阵,伴随矩阵,行列式,特征向量等等...
  • 线性代数 线性相关与线性表示的理解 https://www.zhihu.com/question/39326459/answer/452801233 首先,向量是仅有一行或者一列的特殊矩阵,我们将其每一个元素视为一个维度,n维向量就存在于n维空间内。 我们可以把...
  • 本文摘要线性代数为各种各样的数据科学算法和应用提供支持在这里,我会向您介绍通过线性代数帮助您成为更好的数据科学家的10种实际应用我们已将这些应用程序分类到各个领域 - 基本机器学习,降维,自然语言处理和...
  • 例题2, 上面推导如下: 由此, 由此 所以, 所以, 如果,换成基向量的变化,也就有: 词汇: 1implicit assumptions 隐含假设 2change of basis matrix 基变换矩阵 参考: 【官方双语/合集】线性代数的本质 - ...
  • 这个系列能够让你从变换的角度来解读和理解线性代数的一些概念。一、向量是什么向量(Vector):物理领域,是由方向和长度确定的一个量。计算机领域,是一个有序的数字列表,比如。数学领域,更加抽象,可以进行相加...
  • 点上方蓝字人工智能算法与Python大数据获取更多干货在右上方···设为星标★,第一时间获取资源仅做学术分享,如有侵权,联系删除转载于 :机器之心这份讲义为初学者设计,涉及线性代数的...
  • 一、课程简介线性代数是讨论代数学中线性关系经典理论的课程,它具有较强的抽象性与逻辑性,是高等学校工科本科各专业的一门重要的基础理论课,也是硕士研究生入学全国统一考试中必考的数学课程之一。由于线性问题...
  • 其实它的信息是不够的,至少应该说明现在处于什么学习阶段(是本科学习线代遇到问题,还是考研线代),当然如果能够更加详细一些,阐述清楚在学习线性代数的过程中,遇到的主要困扰那就更好啦,比如:是概念难以理解呢...
  • 线性代数》教学大纲课程性质:必修适用专业:药物制剂等总学时数:36学时学分数:2学时要求先修课程:高数(上册)教 材:《线性代数》,刘剑平、施劲松、曹宵临 华东理工大学出版社,2003《线性代数》电子教材,刘...
  • 本篇为机器学习与数据科学背后的线性代数知识系列的第二篇,本篇主要介绍自然语言处理(NLP)中的线性代数与计算机视觉(CV)中的线性代数。涵盖主成分分析(PCA)与奇异值分解(SVD)背后的线性代数知识。相信这也是各位...
  • 线性代数在实际生活中的应用实例线性代数在实际生活中的应用实例【摘 要】线性代数理论有着悠久的历史和丰富的内容。随着科学技术的发展,特别是电子计算机使用的日益普遍,作为重要的数学工具之一,线性代数的应用...
  • 怎样速成线性代数

    2020-12-24 07:04:54
    谢邀题主提到“线性代数,想必不是数学系的,应该不考线性空间和线性映射,不考内积空间,不考复矩阵、各种矩阵分解. 而且是校内期末考这中送人头的考试,不要太容易.1,行列式这块,会简单计算即可,需要归纳法或...
  • 为什么要学线性代数? 前言: 对于理工科学生来说,线性代数是必不可少的一门课,其在通信、AI、计算机、物理、机械工程等各个领域均有重要且广泛的应用。我们大学时所用的课本、老师讲的课,基本都注重怎么去计算...
  • 线性代数 特征值和特征向量的理解

    千次阅读 2021-03-24 16:45:13
    线性代数 特征值和特征向量的理解 首先,n阶方阵在几何上对应的是某一种线性变换。 n维空间中的一个向量乘以该矩阵,得到的结果就是在空间中对这个向量进行该矩阵对应的线性变换后得到的向量。 因此,特征值和特征...
  • 继续接着上一次线性代数学习之正交性,标准正交矩阵和投影往下学习,前面已经详细的学习了什么是空间、什么是向量空间、什么是子空间,在此基础上又知道了对于一个空间来说基是很重要的属性,并且对于一个空间来说...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 43,820
精华内容 17,528
关键字:

线性代数理解