精华内容
下载资源
问答
  • 向量的实质
    万次阅读 多人点赞
    2013-11-07 20:09:41

    理解矩阵和特征向量的本质


    最近复习矩阵论中,又是一堆定理和证明突然发现学了这么常时间的矩阵论、线性代数,记住的只是一堆莫名其妙的定理而已,一些本质的东西都没有搞清楚。

    比如,为什么要有矩阵,它仅仅是一堆数的组合吗,集合也是数的组合,为什么不能代替矩阵?

    特征值和特征向量的含义是什么?描述的是什么“特征”?

    矩阵乘法的含义是什么?

    相似变换的“相似”体现在哪?

    行列式代表了什么含义?为什么会有这么“怪异”的运算规则?

    下面3篇文章是网上找的,觉得讲的比较清楚易懂~~~~~

    1:理解矩阵

    http://blog.csdn.net/is01sjjj/archive/2008/09/03/2874132.aspx

    2:特征向量的几何含义

    http://blog.csdn.net/lfkupc/archive/2009/09/17/4561564.aspx

    顺便补上自己的理解,

    特征向量的定义是 Ax =λx,A是线性映射在一组基下的表示。

    左边:Ax即为对x做线性变换

    右边:λx可以理解为不改变x的方向(不包括另其反向),只对x做一定的拉伸,拉伸倍数为λ;也可以理解为最简单的线性变换:数乘变换

    综上:特征向量λ是这么一组(*不是一个)特殊的向量,它们在线性变换A的作用下可以不改变方向,只改变长度

    所谓的“特征”,我的理解是:

    因为特征向量有很好的性质——在线性变换下不改变方向,这样就可以做为一组参考系(也可以理解为坐标系),用这组参考系去刻画别的向量在 这个线性变换下 所发生的变化,即可以用这组向量线性表示。

    这种作用在数学上即表示为谱定律——

    谱定律:一个线性变换(用矩阵乘法表示)可表示为它的所有的特征向量的一个线性组合,其中的线性系数就是每一个向量对应的特征值,即以下公式:

    特征向量的几何含义 - hellojackey2008 - hellojackey2008的博客

    再进一步说,“变换”可以理解为一种运动——一个点变到另一个点,而 “运动是相对的”,需要有参照系。而特征向量就这组参照系

    3:维基百科上的,

    http://zh.wikipedia.org/zh/%E7%89%B9%E5%BE%81%E5%90%91%E9%87%8F

    http://zh.wikipedia.org/zh-cn/%E8%A1%8C%E5%88%97%E5%BC%8F

    -------------------------------------------------------------------------------

    一、理解矩阵一、二, 三(转自孟岩blog)

    (一)

    前不久chensh出于不可告人的目的,要充当老师,教别人线性代数。于是我被揪住就线性代数中一些务虚性的问题与他讨论了几次。很明显,chensh觉得,要让自己在讲线性代数的时候不被那位强势的学生认为是神经病,还是比较难的事情。

    可怜的chensh,谁让你趟这个地雷阵?!色令智昏啊!

    线性代数课程,无论你从行列式入手还是直接从矩阵入手,从一开始就充斥着莫名其妙。比如说,在全国一般工科院系教学中应用最广泛的同济线性代数教材 (现在到了第四版),一上来就介绍逆序数这个“前无古人,后无来者”的古怪概念,然后用逆序数给出行列式的一个极不直观的定义,接着是一些简直犯傻的行列 式性质和习题——把这行乘一个系数加到另一行上,再把那一列减过来,折腾得那叫一个热闹,可就是压根看不出这个东西有嘛用。大多数像我一样资质平庸的学生 到这里就有点犯晕:连这是个什么东西都模模糊糊的,就开始钻火圈表演了,这未免太“无厘头”了吧!于是开始有人逃课,更多的人开始抄作业。这下就中招了, 因为其后的发展可以用一句峰回路转来形容,紧跟着这个无厘头的行列式的,是一个同样无厘头但是伟大的无以复加的家伙的出场——矩阵来了!多年之后,我才明 白,当老师犯傻似地用中括号把一堆傻了吧叽的数括起来,并且不紧不慢地说:“这个东西叫做矩阵”的时候,我的数学生涯掀开了何等悲壮辛酸、惨绝人寰的一 幕!自那以后,在几乎所有跟“学问”二字稍微沾点边的东西里,矩阵这个家伙从不缺席。对于我这个没能一次搞定线性代数的笨蛋来说,矩阵老大的不请自来每每 搞得我灰头土脸,头破血流。长期以来,我在阅读中一见矩阵,就如同阿Q见到了假洋鬼子,揉揉额角就绕道走。

    事实上,我并不是特例。一般工科学生初学线性代数,通常都会感到困难。这种情形在国内外皆然。瑞典数学家Lars Garding在其名著Encounter with Mathematics中说:“如果不熟悉线性代数的概念,要去学习自然科学,现在看来就和文盲差不多。”,然而“按照现行的国际标准,线性代数是通过公 理化来表述的,它是第二代数学模型,...,这就带来了教学上的困难。”事实上,当我们开始学习线性代数的时候,不知不觉就进入了“第二代数学模型”的范 畴当中,这意味着数学的表述方式和抽象性有了一次全面的进化,对于从小一直在“第一代数学模型”,即以实用为导向的、具体的数学模型中学习的我们来说,在 没有并明确告知的情况下进行如此剧烈的paradigm shift,不感到困难才是奇怪的。

    大部分工科学生,往往是在学习了一些后继课程,如数值分析、数学规划、矩阵论之后,才逐渐能够理解和熟练运用线性代数。即便如此,不少人即使能够很熟练地以线性代数为工具进行科研和应用工作,但对于很多这门课程的初学者提出的、看上去是很基础的问题却并不清楚。比如说:

    * 矩阵究竟是什么东西?向量可以被认为是具有n个相互独立的性质(维度)的对象的表示,矩阵又是什么呢?我们如果认为矩阵是一组列(行)向量组成的新的复合 向量的展开式,那么为什么这种展开式具有如此广泛的应用?特别是,为什么偏偏二维的展开式如此有用?如果矩阵中每一个元素又是一个向量,那么我们再展开一 次,变成三维的立方阵,是不是更有用?

    * 矩阵的乘法规则究竟为什么这样规定?为什么这样一种怪异的乘法规则却能够在实践中发挥如此巨大的功效?很多看上去似乎是完全不相关的问题,最后竟然都归结 到矩阵的乘法,这难道不是很奇妙的事情?难道在矩阵乘法那看上去莫名其妙的规则下面,包含着世界的某些本质规律?如果是的话,这些本质规律是什么?

    * 行列式究竟是一个什么东西?为什么会有如此怪异的计算规则?行列式与其对应方阵本质上是什么关系?为什么只有方阵才有对应的行列式,而一般矩阵就没有(不 要觉得这个问题很蠢,如果必要,针对m x n矩阵定义行列式不是做不到的,之所以不做,是因为没有这个必要,但是为什么没有这个必要)?而且,行列式的计算规则,看上去跟矩阵的任何计算规则都没有 直观的联系,为什么又在很多方面决定了矩阵的性质?难道这一切仅是巧合?

    * 矩阵为什么可以分块计算?分块计算这件事情看上去是那么随意,为什么竟是可行的?

    * 对于矩阵转置运算AT,有(AB)T = BTAT,对于矩阵求逆运算A-1,有(AB)-1 = B-1A-1。两个看上去完全没有什么关系的运算,为什么有着类似的性质?这仅仅是巧合吗?

    * 为什么说P-1AP得到的矩阵与A矩阵“相似”?这里的“相似”是什么意思?

    * 特征值和特征向量的本质是什么?它们定义就让人很惊讶,因为Ax =λx,一个诺大的矩阵的效应,竟然不过相当于一个小小的数λ,确实有点奇妙。但何至于用“特征”甚至“本征”来界定?它们刻划的究竟是什么?

    这样的一类问题,经常让使用线性代数已经很多年的人都感到为难。就好像大人面对小孩子的刨根问底,最后总会迫不得已地说“就这样吧,到此为止”一 样,面对这样的问题,很多老手们最后也只能用:“就是这么规定的,你接受并且记住就好”来搪塞。然而,这样的问题如果不能获得回答,线性代数对于我们来说 就是一个粗暴的、不讲道理的、莫名其妙的规则集合,我们会感到,自己并不是在学习一门学问,而是被不由分说地“抛到”一个强制的世界中,只是在考试的皮鞭 挥舞之下被迫赶路,全然无法领略其中的美妙、和谐与统一。直到多年以后,我们已经发觉这门学问如此的有用,却仍然会非常迷惑:怎么这么凑巧?

    我认为,这是我们的线性代数教学中直觉性丧失的后果。上述这些涉及到“如何能”、“怎么会”的问题,仅仅通过纯粹的数学证明来回答,是不能令提问者 满意的。比如,如果你通过一般的证明方法论证了矩阵分块运算确实可行,那么这并不能够让提问者的疑惑得到解决。他们真正的困惑是:矩阵分块运算为什么竟然 是可行的?究竟只是凑巧,还是说这是由矩阵这种对象的某种本质所必然决定的?如果是后者,那么矩阵的这些本质是什么?只要对上述那些问题稍加考虑,我们就 会发现,所有这些问题都不是单纯依靠数学证明所能够解决的。像我们的教科书那样,凡事用数学证明,最后培养出来的学生,只能熟练地使用工具,却欠缺真正意 义上的理解。

    自从1930年代法国布尔巴基学派兴起以来,数学的公理化、系统性描述已经获得巨大的成功,这使得我们接受的数学教育在严谨性上大大提高。然而数学 公理化的一个备受争议的副作用,就是一般数学教育中直觉性的丧失。数学家们似乎认为直觉性与抽象性是矛盾的,因此毫不犹豫地牺牲掉前者。然而包括我本人在 内的很多人都对此表示怀疑,我们不认为直觉性与抽象性一定相互矛盾,特别是在数学教育中和数学教材中,帮助学生建立直觉,有助于它们理解那些抽象的概念, 进而理解数学的本质。反之,如果一味注重形式上的严格性,学生就好像被迫进行钻火圈表演的小白鼠一样,变成枯燥的规则的奴隶。

    对于线性代数的类似上述所提到的一些直觉性的问题,两年多来我断断续续地反复思考了四、五次,为此阅读了好几本国内外线性代数、数值分析、代数和数 学通论性书籍,其中像前苏联的名著《数学:它的内容、方法和意义》、龚昇教授的《线性代数五讲》、前面提到的Encounter with Mathematics(《数学概观》)以及Thomas A. Garrity的《数学拾遗》都给我很大的启发。不过即使如此,我对这个主题的认识也经历了好几次自我否定。比如以前思考的一些结论曾经写在自己的 blog里,但是现在看来,这些结论基本上都是错误的。因此打算把自己现在的有关理解比较完整地记录下来,一方面是因为我觉得现在的理解比较成熟了,可以 拿出来与别人探讨,向别人请教。另一方面,如果以后再有进一步的认识,把现在的理解给推翻了,那现在写的这个snapshot也是很有意义的。

    因为打算写得比较多,所以会分几次慢慢写。也不知道是不是有时间慢慢写完整,会不会中断,写着看吧。

    --------------------------------------------------------------------------

    今天先谈谈对线形空间和矩阵的几个核心概念的理解。这些东西大部分是凭着自己的理解写出来的,基本上不抄书,可能有错误的地方,希望能够被指出。但我希望做到直觉,也就是说能把数学背后说的实质问题说出来。

    首先说说空间(space),这个概念是现代数学的命根子之一,从拓扑空间开始,一步步往上加定义,可以形成很多空间。线形空间其实还是比较初级 的,如果在里面定义了范数,就成了赋范线性空间。赋范线性空间满足完备性,就成了巴那赫空间;赋范线性空间中定义角度,就有了内积空间,内积空间再满足完 备性,就得到希尔伯特空间。

    总之,空间有很多种。你要是去看某种空间的数学定义,大致都是“存在一个集合,在这个集合上定义某某概念,然后满足某些性质”,就可以被称为空间。这未免有点奇怪,为什么要用“空间”来称呼一些这样的集合呢?大家将会看到,其实这是很有道理的。

    我们一般人最熟悉的空间,毫无疑问就是我们生活在其中的(按照牛顿的绝对时空观)的三维空间,从数学上说,这是一个三维的欧几里德空间,我们先不管 那么多,先看看我们熟悉的这样一个空间有些什么最基本的特点。仔细想想我们就会知道,这个三维的空间:1. 由很多(实际上是无穷多个)位置点组成;2. 这些点之间存在相对的关系;3. 可以在空间中定义长度、角度;4. 这个空间可以容纳运动,这里我们所说的运动是从一个点到另一个点的移动(变换),而不是微积分意义上的“连续”性的运动,

    上面的这些性质中,最最关键的是第4条。第1、2条只能说是空间的基础,不算是空间特有的性质,凡是讨论数学问题,都得有一个集合,大多数还得在这 个集合上定义一些结构(关系),并不是说有了这些就算是空间。而第3条太特殊,其他的空间不需要具备,更不是关键的性质。只有第4条是空间的本质,也就是 说,容纳运动是空间的本质特征。

    认识到了这些,我们就可以把我们关于三维空间的认识扩展到其他的空间。事实上,不管是什么空间,都必须容纳和支持在其中发生的符合规则的运动(变 换)。你会发现,在某种空间中往往会存在一种相对应的变换,比如拓扑空间中有拓扑变换,线性空间中有线性变换,仿射空间中有仿射变换,其实这些变换都只不 过是对应空间中允许的运动形式而已。

    因此只要知道,“空间”是容纳运动的一个对象集合,而变换则规定了对应空间的运动。

    下面我们来看看线性空间。线性空间的定义任何一本书上都有,但是既然我们承认线性空间是个空间,那么有两个最基本的问题必须首先得到解决,那就是:

    1. 空间是一个对象集合,线性空间也是空间,所以也是一个对象集合。那么线性空间是什么样的对象的集合?或者说,线性空间中的对象有什么共同点吗?

    2. 线性空间中的运动如何表述的?也就是,线性变换是如何表示的?

    我们先来回答第一个问题,回答这个问题的时候其实是不用拐弯抹角的,可以直截了当的给出答案。线性空间中的任何一个对象,通过选取基和坐标的办法,都可以表达为向量的形式。通常的向量空间我就不说了,举两个不那么平凡的例子:

    L1. 最高次项不大于n次的多项式的全体构成一个线性空间,也就是说,这个线性空间中的每一个对象是一个多项式。如果我们以x0, x1, ..., xn为基,那么任何一个这样的多项式都可以表达为一组n+1维向量,其中的每一个分量ai其实就是多项式中x(i-1)项的系数。值得说明的是,基的选取 有多种办法,只要所选取的那一组基线性无关就可以。这要用到后面提到的概念了,所以这里先不说,提一下而已。

    L2. 闭区间[a, b]上的n阶连续可微函数的全体,构成一个线性空间。也就是说,这个线性空间的每一个对象是一个连续函数。对于其中任何一个连续函数,根据魏尔斯特拉斯定 理,一定可以找到最高次项不大于n的多项式函数,使之与该连续函数的差为0,也就是说,完全相等。这样就把问题归结为L1了。后面就不用再重复了。

    所以说,向量是很厉害的,只要你找到合适的基,用向量可以表示线性空间里任何一个对象。这里头大有文章,因为向量表面上只是一列数,但是其实由于它 的有序性,所以除了这些数本身携带的信息之外,还可以在每个数的对应位置上携带信息。为什么在程序设计中数组最简单,却又威力无穷呢?根本原因就在于此。 这是另一个问题了,这里就不说了。

    下面来回答第二个问题,这个问题的回答会涉及到线性代数的一个最根本的问题。

    线性空间中的运动,被称为线性变换。也就是说,你从线性空间中的一个点运动到任意的另外一个点,都可以通过一个线性变化来完成。那么,线性变换如何 表示呢?很有意思,在线性空间中,当你选定一组基之后,不仅可以用一个向量来描述空间中的任何一个对象,而且可以用矩阵来描述该空间中的任何一个运动(变 换)。而使某个对象发生对应运动的方法,就是用代表那个运动的矩阵,乘以代表那个对象的向量。

    简而言之,在线性空间中选定基之后,向量刻画对象,矩阵刻画对象的运动,用矩阵与向量的乘法施加运动。

    是的,矩阵的本质是运动的描述。如果以后有人问你矩阵是什么,那么你就可以响亮地告诉他,矩阵的本质是运动的描述。(chensh,说你呢!)

    可是多么有意思啊,向量本身不是也可以看成是n x 1矩阵吗?这实在是很奇妙,一个空间中的对象和运动竟然可以用相类同的方式表示。能说这是巧合吗?如果是巧合的话,那可真是幸运的巧合!可以说,线性代数中大多数奇妙的性质,均与这个巧合有直接的关系。

    接着理解矩阵。

    上一篇里说“矩阵是运动的描述”,到现在为止,好像大家都还没什么意见。但是我相信早晚会有数学系出身的网友来拍板转。因为运动这个概念,在数学和 物理里是跟微积分联系在一起的。我们学习微积分的时候,总会有人照本宣科地告诉你,初等数学是研究常量的数学,是研究静态的数学,高等数学是变量的数学, 是研究运动的数学。大家口口相传,差不多人人都知道这句话。但是真知道这句话说的是什么意思的人,好像也不多。简而言之,在我们人类的经验里,运动是一个 连续过程,从A点到B点,就算走得最快的光,也是需要一个时间来逐点地经过AB之间的路径,这就带来了连续性的概念。而连续这个事情,如果不定义极限的概 念,根本就解释不了。古希腊人的数学非常强,但就是缺乏极限观念,所以解释不了运动,被芝诺的那些著名悖论(飞箭不动、飞毛腿阿喀琉斯跑不过乌龟等四个悖 论)搞得死去活来。因为这篇文章不是讲微积分的,所以我就不多说了。有兴趣的读者可以去看看齐民友教授写的《重温微积分》。我就是读了这本书开头的部分, 才明白“高等数学是研究运动的数学”这句话的道理。

    不过在我这个《理解矩阵》的文章里,“运动”的概念不是微积分中的连续性的运动,而是瞬间发生的变化。比如这个时刻在A点,经过一个“运动”,一下 子就“跃迁”到了B点,其中不需要经过A点与B点之间的任何一个点。这样的“运动”,或者说“跃迁”,是违反我们日常的经验的。不过了解一点量子物理常识 的人,就会立刻指出,量子(例如电子)在不同的能量级轨道上跳跃,就是瞬间发生的,具有这样一种跃迁行为。所以说,自然界中并不是没有这种运动现象,只不 过宏观上我们观察不到。但是不管怎么说,“运动”这个词用在这里,还是容易产生歧义的,说得更确切些,应该是“跃迁”。因此这句话可以改成:

    “矩阵是线性空间里跃迁的描述”。

    可是这样说又太物理,也就是说太具体,而不够数学,也就是说不够抽象。因此我们最后换用一个正牌的数学术语——变换,来描述这个事情。这样一说,大 家就应该明白了,所谓变换,其实就是空间里从一个点(元素/对象)到另一个点(元素/对象)的跃迁。比如说,拓扑变换,就是在拓扑空间里从一个点到另一个 点的跃迁。再比如说,仿射变换,就是在仿射空间里从一个点到另一个点的跃迁。附带说一下,这个仿射空间跟向量空间是亲兄弟。做计算机图形学的朋友都知道, 尽管描述一个三维对象只需要三维向量,但所有的计算机图形学变换矩阵都是4 x 4的。说其原因,很多书上都写着“为了使用中方便”,这在我看来简直就是企图蒙混过关。真正的原因,是因为在计算机图形学里应用的图形变换,实际上是在仿 射空间而不是向量空间中进行的。想想看,在向量空间里相一个向量平行移动以后仍是相同的那个向量,而现实世界等长的两个平行线段当然不能被认为同一个东 西,所以计算机图形学的生存空间实际上是仿射空间。而仿射变换的矩阵表示根本就是4 x 4的。又扯远了,有兴趣的读者可以去看《计算机图形学——几何工具算法详解》。

    一旦我们理解了“变换”这个概念,矩阵的定义就变成:

    “矩阵是线性空间里的变换的描述。”

    到这里为止,我们终于得到了一个看上去比较数学的定义。不过还要多说几句。教材上一般是这么说的,在一个线性空间V里的一个线性变换T,当选定一组 基之后,就可以表示为矩阵。因此我们还要说清楚到底什么是线性变换,什么是基,什么叫选定一组基。线性变换的定义是很简单的,设有一种变换T,使得对于线 性空间V中间任何两个不相同的对象x和y,以及任意实数a和b,有:
    T(ax + by) = aT(x) + bT(y),
    那么就称T为线性变换。

    定义都是这么写的,但是光看定义还得不到直觉的理解。线性变换究竟是一种什么样的变换?我们刚才说了,变换是从空间的一个点跃迁到另一个点,而线性 变换,就是从一个线性空间V的某一个点跃迁到另一个线性空间W的另一个点的运动。这句话里蕴含着一层意思,就是说一个点不仅可以变换到同一个线性空间中的 另一个点,而且可以变换到另一个线性空间中的另一个点去。不管你怎么变,只要变换前后都是线性空间中的对象,这个变换就一定是线性变换,也就一定可以用一 个非奇异矩阵来描述。而你用一个非奇异矩阵去描述的一个变换,一定是一个线性变换。有的人可能要问,这里为什么要强调非奇异矩阵?所谓非奇异,只对方阵有 意义,那么非方阵的情况怎么样?这个说起来就会比较冗长了,最后要把线性变换作为一种映射,并且讨论其映射性质,以及线性变换的核与像等概念才能彻底讲清 楚。我觉得这个不算是重点,如果确实有时间的话,以后写一点。以下我们只探讨最常用、最有用的一种变换,就是在同一个线性空间之内的线性变换。也就是说, 下面所说的矩阵,不作说明的话,就是方阵,而且是非奇异方阵。学习一门学问,最重要的是把握主干内容,迅速建立对于这门学问的整体概念,不必一开始就考虑 所有的细枝末节和特殊情况,自乱阵脚。

    接着往下说,什么是基呢?这个问题在后面还要大讲一番,这里只要把基看成是线性空间里的坐标系就可以了。注意是坐标系,不是坐标值,这两者可是一个“对立矛盾统一体”。这样一来,“选定一组基”就是说在线性空间里选定一个坐标系。就这意思。

    好,最后我们把矩阵的定义完善如下:

    “矩阵是线性空间中的线性变换的一个描述。在一个线性空间中,只要我们选定一组基,那么对于任何一个线性变换,都能够用一个确定的矩阵来加以描述。”

    理解这句话的关键,在于把“线性变换”与“线性变换的一个描述”区别开。一个是那个对象,一个是对那个对象的表述。就好像我们熟悉的面向对象编程中,一个对象可以有多个引用,每个引用可以叫不同的名字,但都是指的同一个对象。如果还不形象,那就干脆来个很俗的类比。

    比如有一头猪,你打算给它拍照片,只要你给照相机选定了一个镜头位置,那么就可以给这头猪拍一张照片。这个照片可以看成是这头猪的一个描述,但只是 一个片面的的描述,因为换一个镜头位置给这头猪拍照,能得到一张不同的照片,也是这头猪的另一个片面的描述。所有这样照出来的照片都是这同一头猪的描述, 但是又都不是这头猪本身。

    同样的,对于一个线性变换,只要你选定一组基,那么就可以找到一个矩阵来描述这个线性变换。换一组基,就得到一个不同的矩阵。所有这些矩阵都是这同一个线性变换的描述,但又都不是线性变换本身。

    但是这样的话,问题就来了如果你给我两张猪的照片,我怎么知道这两张照片上的是同一头猪呢?同样的,你给我两个矩阵,我怎么知道这两个矩阵是描述的同一个线性变换呢?如果是同一个线性变换的不同的矩阵描述,那就是本家兄弟了,见面不认识,岂不成了笑话。

    好在,我们可以找到同一个线性变换的矩阵兄弟们的一个性质,那就是:

    若矩阵A与B是同一个线性变换的两个不同的描述(之所以会不同,是因为选定了不同的基,也就是选定了不同的坐标系),则一定能找到一个非奇异矩阵P,使得A、B之间满足这样的关系:

    A = P-1BP

    线性代数稍微熟一点的读者一下就看出来,这就是相似矩阵的定义。没错,所谓相似矩阵,就是同一个线性变换的不同的描述矩阵。按照这个定义,同一头猪的不同角度的照片也可以成为相似照片。俗了一点,不过能让人明白。

    而在上面式子里那个矩阵P,其实就是A矩阵所基于的基与B矩阵所基于的基这两组基之间的一个变换关系。关于这个结论,可以用一种非常直觉的方法来证明(而不是一般教科书上那种形式上的证明),如果有时间的话,我以后在blog里补充这个证明。

    这个发现太重要了。原来一族相似矩阵都是同一个线性变换的描述啊!难怪这么重要!工科研究生课程中有矩阵论、矩阵分析等课程,其中讲了各种各样的相 似变换,比如什么相似标准型,对角化之类的内容,都要求变换以后得到的那个矩阵与先前的那个矩阵式相似的,为什么这么要求?因为只有这样要求,才能保证变 换前后的两个矩阵是描述同一个线性变换的。当然,同一个线性变换的不同矩阵描述,从实际运算性质来看并不是不分好环的。有些描述矩阵就比其他的矩阵性质好 得多。这很容易理解,同一头猪的照片也有美丑之分嘛。所以矩阵的相似变换可以把一个比较丑的矩阵变成一个比较美的矩阵,而保证这两个矩阵都是描述了同一个 线性变换。

    这样一来,矩阵作为线性变换描述的一面,基本上说清楚了。但是,事情没有那么简单,或者说,线性代数还有比这更奇妙的性质,那就是,矩阵不仅可以作 为线性变换的描述,而且可以作为一组基的描述。而作为变换的矩阵,不但可以把线性空间中的一个点给变换到另一个点去,而且也能够把线性空间中的一个坐标系 (基)表换到另一个坐标系(基)去。而且,变换点与变换坐标系,具有异曲同工的效果。线性代数里最有趣的奥妙,就蕴含在其中。理解了这些内容,线性代数里 很多定理和规则会变得更加清晰、直觉。

    这个留在下一篇再写吧。

    因为有别的事情要做,下一篇可能要过几天再写了。

    (二)

    接着理解矩阵。

    上一篇里说“矩阵是运动的描述”,到现在为止,好像大家都还没什么意见。但是我相信早晚会有数学系出身的网友来拍板 转。因为运动这个概念,在数学和物理里是跟微积分联系在一起的。我们学习微积分的时候,总会有人照本宣科地告诉你,初等数学是研究常量的数学,是研究静态 的数学,高等数学是变量的数学,是研究运动的数学。大家口口相传,差不多人人都知道这句话。但是真知道这句话说的是什么意思的人,好像也不多。简而言之, 在我们人类的经验里,运动是一个连续过程,从A点到B点,就算走得最快的光,也是需要一个时间来逐点地 经过AB之间的路径,这就带来了连续性的概念。而连续这个事情,如果不定义极限的概念,根本就解释不了。古希腊人的数学非常强,但就是缺乏极限观念,所以 解释不了运动,被芝诺的那些著名悖论(飞箭不动、飞毛腿阿喀琉斯跑不过乌龟等四个悖论)搞得死去活来。因为这篇文章不是讲微积分的,所以我就不多说了。有 兴趣的读者可以去看看齐民友教授写的《重温微积分》。我就是读了这本书开头的部分,才明白“高等数学是研究运动的数学”这句话的道理。

    不过在我这个《理解矩阵》的文章里,“运动”的概念不是微积分中的连续性的运动,而是瞬间发生的变化。比如这个时刻在A点,经过一个“运动”,一下子就“跃迁” 到了B点,其中不需要经过A点与B点之间的任何一个点。这样的“运动”,或者说“跃迁”,是违反我们日常的经验的。不过了解一点量子物理常识的人,就会立 刻指出,量子(例如电子)在不同的能量级轨道上跳跃,就是瞬间发生的,具有这样一种跃迁行为。所以说,自然界中并不是没有这种运动现象,只不过宏观上我们 观察不到。但是不管怎么说,“运动”这个词用在这里,还是容易产生歧义的,说得更确切些,应该是“跃迁”。因此这句话可以改成:

    “矩阵是线性空间里跃迁的描述”。

    可是这样说又太物理,也就是说太具体,而不够数学,也就是说不够抽象。因此我们最后换用一个正牌的数学术语——变换,来描述这个事情。这样一说,大家就应该明白了,所谓变换,其实就是空间里从一个点(元素/对象)到另一个点(元素/对象)的跃迁。 比如说,拓扑变换,就是在拓扑空间里从一个点到另一个点的跃迁。再比如说,仿射变换,就是在仿射空间里从一个点到另一个点的跃迁。附带说一下,这个仿射空 间跟向量空间是亲兄弟。做计算机图形学的朋友都知道,尽管描述一个三维对象只需要三维向量,但所有的计算机图形学变换矩阵都是4 x 4的。说其原因,很多书上都写着“为了使用中方便”,这在我看来简直就是企图蒙混过关。真正的原因,是因为在计算机图形学里应用的图形变换,实际上是在仿 射空间而不是向量空间中进行的。想想看,在向量空间里相一个向量平行移动以后仍是相同的那个向量,而现实世界等长的两个平行线段当然不能被认为同一个东 西,所以计算机图形学的生存空间实际上是仿射空间。而仿射变换的矩阵表示根本就是4 x 4的。又扯远了,有兴趣的读者可以去看《计算机图形学——几何工具算法详解》。

    一旦我们理解了“变换”这个概念,矩阵的定义就变成:

    “矩阵是线性空间里的变换的描述。”

    到这里为止,我们终于得到了一个看上去比较数学的定义。不过还要多说几句。教材上一般是这么说的,在一个线性空间V 里的一个线性变换T,当选定一组基之后,就可以表示为矩阵。因此我们还要说清楚到底什么是线性变换,什么是基,什么叫选定一组基。线性变换的定义是很简单 的,设有一种变换T,使得对于线性空间V中间任何两个不相同的对象x和y,以及任意实数a和b,有:
    T(ax + by) = aT(x) + bT(y),
    那么就称T为线性变换。

    定义都是这么写的,但是光看定义还得不到直觉的理解。线性变换究竟是一种什么样的变换?我们刚才说了,变换是从空间 的一个点跃迁到另一个点,而线性变换,就是从一个线性空间V的某一个点跃迁到另一个线性空间W的另一个点的运动。这句话里蕴含着一层意思,就是说一个点不 仅可以变换到同一个线性空间中的另一个点,而且可以变换到另一个线性空间中的另一个点去。不管你怎么变,只要变换前后都是线性空间中的对象,这个变换就一 定是线性变换,也就一定可以用一个非奇异矩阵来描述。而你用一个非奇异矩阵去描述的一个变换,一定是一个线性变换。有的人可能要问,这里为什么要强调非奇 异矩阵?所谓非奇异,只对方阵有意义,那么非方阵的情况怎么样?这个说起来就会比较冗长了,最后要把线性变换作为一种映射,并且讨论其映射性质,以及线性 变换的核与像等概念才能彻底讲清楚。我觉得这个不算是重点,如果确实有时间的话,以后写一点。以下我们只探讨最常用、最有用的一种变换, 就是在同一个线性空间之内的线性变换。也就是说,下面所说的矩阵,不作说明的话,就是方阵,而且是非奇异方阵。学习一门学问,最重要的是把握主干内容,迅 速建立对于这门学问的整体概念,不必一开始就考虑所有的细枝末节和特殊情况,自乱阵脚。

    接着往下说,什么是基呢?这个问题在后面还要大讲一番,这里只要把基看成是线性空间里的坐标系就可以了。注意是坐标系,不是坐标值,这两者可是一个“对立矛盾统一体”。这样一来,“选定一组基”就是说在线性空间里选定一个坐标系。就这意思。

    好,最后我们把矩阵的定义完善如下:

    “矩阵是线性空间中的线性变换的一个描述。在一个线性空间中,只要我们选定一组基,那么对于任何一个线性变换,都能够用一个确定的矩阵来加以描述。”

    理解这句话的关键,在于把“线性变换”与“线性变换的一个描述”区别开。一个是那个对象,一个是对那个对象的表述。就好像我们熟悉的面向对象编程中,一个对象可以有多个引用,每个引用可以叫不同的名字,但都是指的同一个对象。如果还不形象,那就干脆来个很俗的类比。

    比如有一头猪,你打算给它拍照片,只要你给照相机选定了一个镜头位置,那么就可以给这头猪拍一张照片。这个照片可以 看成是这头猪的一个描述,但只是一个片面的的描述,因为换一个镜头位置给这头猪拍照,能得到一张不同的照片,也是这头猪的另一个片面的描述。所有这样照出 来的照片都是这同一头猪的描述,但是又都不是这头猪本身。

    同样的,对于一个线性变换,只要你选定一组基,那么就可以找到一个矩阵来描述这个线性变换。换一组基,就得到一个不同的矩阵。所有这些矩阵都是这同一个线性变换的描述,但又都不是线性变换本身。

    但是这样的话,问题就来了如果你给我两张猪的照片,我怎么知道这两张照片上的是同一头猪呢?同样的,你给我两个矩阵,我怎么知道这两个矩阵是描述的同一个线性变换呢?如果是同一个线性变换的不同的矩阵描述,那就是本家兄弟了,见面不认识,岂不成了笑话。

    好在,我们可以找到同一个线性变换的矩阵兄弟们的一个性质,那就是:

    若矩阵A与B是同一个线性变换的两个不同的描述(之所以会不同,是因为选定了不同的基,也就是选定了不同的坐标系),则一定能找到一个非奇异矩阵P,使得A、B之间满足这样的关系:

    A = P-1BP

    线性代数稍微熟一点的读者一下就看出来,这就是相似矩阵的定义。没错,所谓相似矩阵,就是同一个线性变换的不同的描述矩阵。按照这个定义,同一头猪的不同角度的照片也可以成为相似照片。俗了一点,不过能让人明白。

    而在上面式子里那个矩阵P,其实就是A矩阵所基于的基与B矩阵所基于的基这两组基之间的一个变换关系。关于这个结论,可以用一种非常直觉的方法来证明(而不是一般教科书上那种形式上的证明),如果有时间的话,我以后在blog里补充这个证明。

    这个发现太重要了。原来一族相似矩阵都是同一个线性变换的描述啊!难 怪这么重要!工科研究生课程中有矩阵论、矩阵分析等课程,其中讲了各种各样的相似变换,比如什么相似标准型,对角化之类的内容,都要求变换以后得到的那个 矩阵与先前的那个矩阵式相似的,为什么这么要求?因为只有这样要求,才能保证变换前后的两个矩阵是描述同一个线性变换的。当然,同一个线性变换的不同矩阵 描述,从实际运算性质来看并不是不分好环的。有些描述矩阵就比其他的矩阵性质好得多。这很容易理解,同一头猪的照片也有美丑之分嘛。所以矩阵的相似变换可 以把一个比较丑的矩阵变成一个比较美的矩阵,而保证这两个矩阵都是描述了同一个线性变换。

    这样一来,矩阵作为线性变换描述的一面,基本上说清楚了。但是,事情没有那么简单,或者说,线性代数还有比这更奇妙的性质,那就是,矩阵不仅可以作为线性变换的描述,而且可以作为一组基的描述。而 作为变换的矩阵,不但可以把线性空间中的一个点给变换到另一个点去,而且也能够把线性空间中的一个坐标系(基)表换到另一个坐标系(基)去。而且,变换点 与变换坐标系,具有异曲同工的效果。线性代数里最有趣的奥妙,就蕴含在其中。理解了这些内容,线性代数里很多定理和规则会变得更加清晰、直觉。

    这个留在下一篇再写吧。

    因为有别的事情要做,下一篇可能要过几天再写了。

     

    (三)

    在第二部分结束的时候,我说:
           矩 阵不仅可以作为线性变换的描述,而且可以作为一组基的描述。而作为变换的矩阵,不但可以把线性空间中的一个点给变换到另一个点去,而且也能够把线性空间中 的一个坐标系(基)表换到另一个坐标系(基)去。而且,变换点与变换坐标系,具有异曲同工的效果。线性代数里最有趣的奥妙,就蕴含在其中。理解了这些内 容,线性代数里很多定理和规则会变得更加清晰、直觉。

    这个留在下一篇再写吧。

    因为有别的事情要做,下一篇可能要过几天再写了。 ” 

    然而这一拖就是一年半。一年半以来,这两篇粗糙放肆的文章被到处转载,以至于在Google的搜索提示中,我的名字 跟“矩阵”是一对关联词汇。这对于学生时代数学一直很差的我来说,实在是令人惶恐的事情。数学是何等辉煌精致的学问!代表着人类智慧的最高成就,是人与上 帝对话的语言。而我实在连数学的门都还没进去,不要说谈什么理解,就是稍微难一些的题目我也很少能解开。我有什么资格去谈矩阵这样重要的一个数学概念呢? 更何况,我的想法直观是直观,未见的是正确的啊,会不会误人子弟呢?因此,算了吧,到此为止吧,我这么想。


            是时不时收到的来信逐渐改变了我的想法。

            一年半以来,我收到过不下一百封直接的来信,要求我把后面的部分写出来。这些来信大部分是国内的网友和学生,也有少数来自正在国外深造的朋友,大部分是鼓 励,有的是诚挚的请求,也有少数严厉斥责我不守承诺。不管是何种态度,这都表明他们对我这一点点小小的思考成果的鼓励,特别是对于我这种思维的视角和尝试 的鼓励。他们在信中让我知道,尽管我的数学水平不高,但是我这种从普通人(而不是数学家)视角出发,强调对数学概念和规则的直觉理解的思路,对于很多人是 有益的。也许这条路子在数学中绝非正道,也不会走得很远,但是无论如何,在一定的阶段,对一部分人来说,较之目前数学教材普遍采用的思路,这种方式可能更 容易理解一些。既然是可能对一部分人有帮助的事情,那么我就不应该心存太多杂念,应该不断思考和总结下去。

           所以,下面就是你们来信要求我写出来的东西。

           首先来总结一下前面两部分的一些主要结论:

    1. 首先有空间,空间可以容纳对象运动的。一种空间对应一类对象。
    2. 有一种空间叫线性空间,线性空间是容纳向量对象运动的。
    3. 运动是瞬时的,因此也被称为变换。
    4. 矩阵是线性空间中运动(变换)的描述。
    5. 矩阵与向量相乘,就是实施运动(变换)的过程。
    6. 同一个变换,在不同的坐标系下表现为不同的矩阵,但是它们的本质是一样的,所以本征值相同。

    更多相关内容
  • 翻来覆去,就是什么行列式,秩,极大无关组,齐次方程组,特征值和特征向量,对角阵,相似矩阵。。 解方程->矩阵相乘->特征值和特征向量 行列式就是矩阵的列向量在空间的构成的点连成的图形的体积大小。 秩...

    复习了一下线性代数,在B站上竟然点出了清华大学李永乐老师的考研冲刺班教程

    好吧,就以题代练,重新感受了一下当年线代的熟悉操作。

    翻来覆去,就是什么行列式,秩,极大无关组,齐次方程组,特征值和特征向量,对角阵,相似矩阵。。

    解方程->矩阵相乘->特征值和特征向量

    行列式就是矩阵的列向量在空间的构成的点连成的图形的体积大小。

    秩就是有几个正交基和极大无关组类似

    核心还是这个特征值和特征向量,

    考虑一个问题,既然可逆矩阵可以和一个对角阵相似,特征值就是对角阵的对角线上的值,

    也就是说任何一个可逆矩阵,都能映射到某个坐标体系中去(特征值、特征向量是复数,也可能不存在)

    这个体系就是特征空间,特征空间会随着矩阵的改变而改变,A*向量V=λ*向量V,在A的作用下,向量只做伸缩不做方向的变动。

    参考:https://www.matongxue.com/madocs/228.html

    如下图所示,当向量v(绿色)和特征空间的基向量(A的特征向量)重合时,也就是,方向一致,向量v就成了特征向量,

    不重合时,可以说是向量AV(紫色)是向量v(绿色)在A的特征空间的映射?:)我不知道这么说对不对,/(-o-)\

    如果我们继续用A乘向量Av,那么v将会朝着最大特征值的特征向量的方向移动,直到完全一致。

    为什么乘一次无法将v变成A的特征向量方向呢?因为是A不止一个特征向量,

    另一个问题,方阵(方阵才有特征值)和向量的乘法,就是对向量的两类运动,一个是伸缩,一个旋转,特征值分解后,特征值就是伸缩,两两相互正交的单位特征向量就是旋转动作。

    最大的特征值对应的特征向量指明了矩阵的运动的最大速度和方向,相当于这个矩阵的最大的特征,这个和主成分分析是不是有类似?图像处理中,保留主要特征值,相当于图像压缩。

    矩阵乘法就是线性函数,或者线性映射,本质是基改变,导致向量的坐标发生变化,是不是在不同的线性空间里的映射?

    最后:特征值和特征向量的应用

    说了这么多,可能有模友会问:到底特征值和特征向量有什么用呢?不会仅仅用来考试吧!

    其实,特征值和特征向量在我们的生活中都是非常普遍的。

    (1)可以用在研究物理、化学领域的微分方程、连续的或离散的动力系统中。例如,在力学中,惯量的特征向量定义了刚体的主轴。惯量是决定刚体围绕质心转动的关键数据;

    (2)数学生态学家用来预测原始森林遭到何种程度的砍伐,会造成猫头鹰的种群灭亡;

    (3)著名的图像处理中的PCA方法,选取特征值最高的k个特征向量来表示一个矩阵,从而达到降维分析+特征显示的方法,还有图像压缩的K-L变换。再比如很多人脸识别,数据流模式挖掘分析等方面。

    (4)在谱系图论中,一个图的特征值定义为图的邻接矩阵A的特征值,或者(更多的是)图的拉普拉斯算子矩阵,Google的PageRank算法就是一个例子。

    有一句话说得好:“只要有振动就有特征值,即振动的自然频率”。如果你曾经弹过吉他,你已经求解了一个特征值问题。。。

     

    转载于:https://www.cnblogs.com/marszhw/p/10169734.html

    展开全文
  • 特征值和特征向量一直是我最疑惑的一个地方,虽然知道如何计算,但是一直不懂他所代表的意义,今天就来揭开他神秘的面纱! 特征值和特征向量 我们先来看一个线性变换的矩阵,并且考虑他所张成的空间,也就是过原点和...

    特征值和特征向量一直是我最疑惑的一个地方,虽然知道如何计算,但是一直不懂他所代表的意义,今天就来揭开他神秘的面纱!

    特征值和特征向量

    我们先来看一个线性变换的矩阵,并且考虑他所张成的空间,也就是过原点和向量尖端的直线:

    在这个变换中,绝大部分的向量都已经离开了它们张成的空间,但是某些特殊向量的确留在它们张成的空间里,意味着矩阵对他的作用只是拉伸或者压缩而已,如同一个标量。

    如果一个向量留在它们张成的空间里,例如下面的 两个向量,就是它们的特征向量,而被拉伸或者压缩的倍数就是特征值。

    那么特征值和特征向量有什么用呢?

    例如我们考虑一个 3-D 空间的旋转,如果能够找到这个旋转的特征向量,它们所在的直线就是旋转轴(在这种情况下,特征值必须为1 ,因为不改变长度)。

    特征向量的计算方法:

    而这个等式的目的在于寻找一个 lambda,把它当作一个线性变换,也就是将调整变换后的空间压缩到一个更低的维度上。

    当然一个线性变换也可能没有特征向量,例如一个90度的旋转,所有的向量都已经改变了,但是如果我们求解上面的方程,会得到两个复数解,没有实数解,就代表没有特征向量。

    而且属于单个特征值可能有多个特征向量,例如下面这个矩阵:

    除了对角元以外的其他元素都为 0 的矩阵被称为对角矩阵。

    对于对角矩阵,它们对角线上的值就是特征值,它们列向量就是特征向量了。

    同时,对角矩阵对于矩阵的多次计算非常有用,例如在矩阵多次与自己相乘的结果上更容易计算:

    同时,特征基(能够张成全空间的一组特征向量对应的特征值)也会在运算中起到非常大的作用。

    展开全文
  • 旋转向量和平移向量本质 文章目录旋转向量和平移向量本质1. 平移向量本质2. 旋转矩阵的本质 1. 平移向量本质 如图所示,坐标系1和坐标系2平行但不重合,所以空间点从坐标系2到坐标系1的变换只有平移,空间...

    旋转向量和平移向量的本质

    1. 平移向量的本质

    truthOfTranslationVector

    如图所示,坐标系1和坐标系2平行但不重合,所以空间点从坐标系2到坐标系1的变换只有平移,空间的一点 P P P在坐标系2和坐标系1的坐标分别设为 P 2 P_{2} P2 P 1 P_{1} P1,设平移向量为 t ⃗ \vec{t} t ,即,空间点从坐标系2到坐标系1的变换可以表示为: P 1 = P 2 + t ⃗ P_{1}=P_{2}+\vec{t} P1=P2+t

    • 本质空间点从坐标系2变换到坐标系1的平移向量 t ⃗ \vec{t} t O 1 O 2 ⃗ \vec{O_{1}O_{2}} O1O2 ,在坐标系1中该向量的值与 O 2 O_{2} O2在坐标系1中的坐标相等。

    2. 旋转矩阵的本质

    在这里插入图片描述

    如图所示,坐标系1和坐标系2原点重合但是不平行,所以空间点从坐标系2到坐标系1的变换只有旋转矩阵。空间的一点 P P P在坐标系2和坐标系1的坐标分别设为 P 2 P_{2} P2 P 1 P_{1} P1,旋转矩阵用 R R R表示则:

    P 1 = R P 2 P_{1}=RP_{2} P1=RP2

    R = [ r 11 r 12 r 13 r 21 r 22 r 23 r 31 r 32 r 33 ] = [ r 1 r 2 r 3 ] R=\begin{bmatrix} r_{11} & r_{12} & r_{13} \\ r_{21} & r_{22} & r_{23} \\ r_{31} & r_{32} & r_{33} \end{bmatrix}=\begin{bmatrix} r_{1} & r_{2} & r_{3} \end{bmatrix} R=r11r21r31r12r22r32r13r23r33=[r1r2r3]

    在坐标系2中取三个特殊点 A ( 1 , 0 , 0 ) , B ( 0 , 1 , 0 ) , C ( 0 , 0 , 1 ) A(1,0,0),B(0,1,0),C(0,0,1) A(1,0,0)B(0,1,0)C(0,0,1),并分别将其转换到坐标系1中,则

    { P A 1 = R P A = r 1 P B 1 = R P B = r 2 P C 1 = R P C = r 3 \left\{\begin{array}{ll} P_{A1}= RP_{A} =r_{1} \\ P_{B1}= RP_{B} =r_{2} \\ P_{C1}= RP_{C} =r_{3}\end{array} \right. PA1=RPA=r1PB1=RPB=r2PC1=RPC=r3

    空间点从坐标系2到坐标系1的旋转矩阵R的分量 r 1 , r 2 , r 3 r_{1},r_{2} ,r_{3} r1,r2,r3分别为坐标系2的基底向量 O 2 X 2 ⃗ 、 O 2 Y 2 ⃗ 、 O 2 Z 2 ⃗ \vec{O_{2}X_{2}}、\vec{O_{2}Y_{2}}、\vec{O_{2}Z_{2}} O2X2 O2Y2 O2Z2 在坐标系 O 1 O_{1} O1中的表示。

    同理: [ r 11 r 12 r 13 ] T 、 [ r 21 r 22 r 23 ] T 、 [ r 31 r 32 r 33 ] T \begin{bmatrix} r_{11} & r_{12} & r_{13} \end{bmatrix}^{T}、\begin{bmatrix} r_{21} & r_{22} & r_{23} \end{bmatrix}^{T}、\begin{bmatrix} r_{31} & r_{32} & r_{33} \end{bmatrix}^{T} [r11r12r13]T[r21r22r23]T[r31r32r33]T分别为坐标系1的基底向量 O 1 X 1 ⃗ 、 O 1 Y 1 ⃗ 、 O 1 Z 1 ⃗ \vec{O_{1}X_{1}}、\vec{O_{1}Y_{1}}、\vec{O_{1}Z_{1}} O1X1 O1Y1 O1Z1 在坐标系 O 2 O_{2} O2中的表示。

    • 空间点从坐标系2到坐标系1的旋转矩阵R的本质
      • 列分量本质上是坐标系2的X轴、Y轴和Z轴在坐标系1中的坐标
      • R的行分量本质上是坐标系1的X轴、Y轴和Z轴在坐标系2中的坐标。

    3. 两个坐标系之间的旋转矩阵和平移向量的相互转换关系

    3.1 假设

    cvtRT

    • 空间的一点 P P P在坐标系2和坐标系1的坐标分别设为 P 2 P_{2} P2 P 1 P_{1} P1
    • 坐标系1到坐标系2的旋转矩阵和平移向量设为: R 1 − > 2 R_{1->2} R1>2 t 1 − > 2 t_{1->2} t1>2
    • 坐标系2到坐标系1的旋转矩阵和平移向量设为: R 2 − > 1 R_{2->1} R2>1 t 2 − > 1 t_{2->1} t2>1

    3.2 转换关系推导

    • P 2 − > P 1 P_{2}->P_{1} P2>P1

      • P 1 = R 2 − > 1 P 2 + t 2 − > 1 P_{1} = R_{2->1}P_{2}+t_{2->1} P1=R2>1P2+t2>1,变换得:
      • P 2 = R 2 − > 1 − 1 P 1 − R 2 − > 1 − 1 t 1 − > 2 P_{2} = R_{2->1}^{-1}P_{1}-R_{2->1}^{-1}t_{1->2} P2=R2>11P1R2>11t1>2
    • P 1 − > P 2 P_{1}->P_{2} P1>P2

      • P 2 = R 1 − > 2 P 1 + t 1 − > 2 P_{2} = R_{1->2}P_{1}+t_{1->2} P2=R1>2P1+t1>2
    • 综上可得:

      • { R 1 − > 2 = R 2 − > 1 − 1 = R 2 − > 1 T t 1 − > 2 = − R 2 − > 1 − 1 t 1 − > 2 \left\{\begin{array}{ll} R_{1->2}= R_{2->1}^{-1}= R_{2->1}^{T}\\ t_{1->2}=-R_{2->1}^{-1}t_{1->2} \end{array} \right. {R1>2=R2>11=R2>1Tt1>2=R2>11t1>2
      • 因为标准旋转矩阵R为单位正交阵
      • 因此旋转矩阵互逆,平移矩阵大小不变方向相反
    展开全文
  • 改进向量法肺实质修补,林红利,李军,肺实质分割是肺结节计算机辅助诊断过程中的第一个环节,其分割结果对后续处理具有重要作用。现有的分割方法均侧重于肺实质外部轮��
  • 今天小编就为大家分享一篇numpy:np.newaxis 实现将行向量转换成列向量,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  • 回归和分类从某种意义上讲,本质上是一回事。SVM分类,就是找到一个平面,让两个分类集合的支持向量或者所有的数据(LSSVM)离分类平面最远;SVR回 归,就是找到一个回归平面,让一个集合的所有数据到该平面的距离...
  • 主要时参考刘建平教授的文章,以及李航的<统计学习方法>.
  • 计划用3-4次,彻底说清楚在自然语言处理中,词向量的由来,本质和训练。公众号专栏主要讲基本原理,知识星球讲实际的操作。本篇主要讲述词向量的由来及本质。作者 | 小Dream哥编辑 | 言有三1 词的向量化首先,我们...
  • 之前的以此组会,老师让讲一下支持向量机SVM的基本知识,就做了一个ppt介绍。 里面主要软硬间隔,对偶相关的知识
  • 三种观点物理空间中的箭头大小与方向计算机有序的数字列表数学概括两种观点向量需保证两个向量相加以及向量相乘有意义向量加和向量乘贯穿线性代数始终,起很重要作用比较有
  • 文章目录一:不同的人如何看待向量二:坐标系中的向量表示三:坐标系中向量加法和数乘(1)相加(2)数乘 一:不同的人如何看待向量 向量的概念我们再熟悉不过了,他们在不同人眼中是不一样的 学物理的人认为,向量...
  • 支持向量机(support vector machines, SVM)是一种二分类模型,它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机;SVM还包括核技巧,这使它成为实质上的非线性分类器。SVM的的学习...
  • 机器学习——支持向量机思维导图
  • 简述了IDS的基本原理,从本质上讲,入侵检测实际上是一个分类问题.就是通过检测把正常数据和异常数据分开。给出了入侵检测模型,论述了支持向量机(SVM)是在小样本学习的基础上发展起来的分类器设计方法.专门用于小...
  • 压缩库采用一些未压缩的数据并提供本质上的 compress() 和 decompress() 函数。通常,您必须解压缩数据才能对其执行任何操作,从而导致额外的延迟和分配。另一方面,这个压缩的 vec库允许您直接迭代和处理压缩的表示...
  • 支持向量机还包括核技巧,实质上是非线性分类器。 学习策略:间隔最大化 学习算法:求解凸二次规划的最优化算法。 当训练数据线性可分时,通过硬间隔最大化(hard margin maximization),学习一个线性的分类器,即
  • 上一期给大家讲了一下总括性的东西,如果没看的同学最好能先去看一下,因为关联性会比较强线代的本质(一),那今天呢,就和大家梳理一下向量和矩阵到底是个啥。我希望大家看的时候不要一开始就带着害怕、恐惧的心理,...
  • 支持向量机的本质

    2020-09-03 12:54:20
    支持向量机 Support Vector Machine 简称 SVM ,是一种最大化间隔的分类算法。最大化间隔的意思说白了就是,找到最大的间隔。(我就觉得奇怪,SVM 是一种算法,也就是一套方法,但 “SVM” 这名字取得好像它是一种...
  • 支持向量机 1线性可分情况下的支持向量机 1...课件 2线性鉴别函数与分类面的对应关系 线性鉴别函数与分类面不是一一对应的每一个分类面有无穷多个鉴别函数与其相对应 课件 3支持向量机设计的目的本质上是寻求一个距离最
  • 这里R21为坐标系1到坐标系2的旋转矩阵,t21为坐标系1到坐标系2的平移向量,即坐标系2在坐标系1下的坐标 第二 变换矩阵T左上角三行三列为R,右上角第四列前三行为平移向量t,左下角第四行前三列为0 0 0,右下角第四行...
  • 物理系学生对向量的视角:vectors are arrows pointing in space. What defines a given vector is its length, and the direction it’s pointing in. 计算机专业同学的视角: vectors are ordered lists of ...
  • 向量均衡问题解集的本质连通区的存在性问题已成为研究非线性问题稳定性的一个重要方面。Chen和Gong在目标函数固定时研究了真拟凸对称向量拟均衡问题的本质连通区的存在性。2010年,陈剑尘与龚循华研究了锥凸对称向量...
  • 向量仅仅是向量吗?

    热门讨论 2020-11-15 19:45:05
    提到数学中的向量大家肯定都不会陌生的,但是高中毕业之后留在你大脑里的向量还有多少呢?对于一般人来说,可能留下的并不多,作为大学已经毕业的我来说,向量如果不重新看课本的话,脑子里的东西真的是所剩无几,我...
  • 【NLP-词向量】词向量的由来及本质

    千次阅读 2019-09-03 11:27:18
    词嵌入是所有自然语言处理任务所必须要经历的步骤,非常的重要。词向量在网络上已经有了大量的文章,但是,出于我们专栏的完整性系统性的考虑,笔者还是决定加上这样一个专题。计划用...
  • 问题:n个元素的向量V循环移位(以左移为例)i个位置,例如12345循环移动2个位置得到34512. ...而之所以写这篇文章,很大程度上是因为接下来要介绍的三种方法带来了对问题本质更深入的思考。 方法一
  • 向量组:即通过秩的数量构造多维的空间系。 一个向量组的秩=空间的维度。 向量组之间的相互表示:即空间维度的转化。 能够线性表示,则说明两个空间维度是包含于的关系。 例如A向量组(a1,a2,a3,... ...ai)可以...
  • 由于L1范数具有诱导稀疏性的本质,使得稀疏隐空间支持向量机获得了良好的稀疏性。同隐空间支持向量机一样,稀疏隐空间支持向量机对核函数没有Mercer条件的限制,扩大了核函数的选择范围。在人工和基准数据集上的分类...
  • 向量向量空间

    千次阅读 2020-07-27 15:48:57
    这个系列的文章可能会比国内的教材更接近线代的本质(博主自以为 ),所以对做题、套路之类的涉及不多,主要参考的是Meyer的《Matrix Analysis and Applied Linear Algebra》和Manolis的youtobe频道,还有3Blue1...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 102,148
精华内容 40,859
关键字:

向量的实质

友情链接: simpleplay.rar