精华内容
下载资源
问答
  • 向量的内、外及其几何含义

    万次阅读 多人点赞 2019-03-18 15:37:51
    一、向量的内积(点乘) 定义 概括地说,向量的内积(点乘/数量积)。对两个向量执行点乘运算,就是对这两个向量对应位一一相乘之后求和操作,如下所示,对于向量a和向量b: a和b点积公式为: 这里要求...

    一、向量的内积(点乘)

    定义

    概括地说,向量的内积(点乘/数量积)。对两个向量执行点乘运算,就是对这两个向量对应位一一相乘之后求和的操作,如下所示,对于向量a和向量b:

     

    a和b的点积公式为:

    这里要求一维向量a和向量b的行列数相同。注意:点乘的结果是一个标量(数量而不是向量)

    定义:两个向量ab的内积为 a·b = |a||b|cos∠(a, b),特别地,0·a =a·0 = 0;若ab是非零向量,则ab****正交的充要条件是a·b = 0。

    向量内积的性质:

    1. a^2 ≥ 0;当a^2 = 0时,必有a = 0. (正定性)
    2. a·b = b·a. (对称性)
    3. a + μbc = λa·c + μb·c,对任意实数λ, μ成立. (线性)
    4. cos∠(a,b) =a·b/(|a||b|).
    5. |a·b| ≤ |a||b|,等号只在ab共线时成立.

    向量内积的几何意义

    内积(点乘)的几何意义包括:

    1. 表征或计算两个向量之间的夹角
    2. b向量在a向量方向上的投影

    有公式:

    推导过程如下,首先看一下向量组成:

    定义向量c

    根据三角形余弦定理(这里a、b、c均为向量,下同)有:

    根据关系c=a-b有:

    即:

    a∙b=|a||b|cos⁡(θ)

    向量a,b的长度都是可以计算的已知量,从而有a和b间的夹角θ:

    θ=arccos⁡(a∙b|a||b|)

    进而可以进一步判断两个向量是否同一方向或正交(即垂直)等方向关系,具体对应关系为:

    a∙b>0→方向基本相同,夹角在0°到90°之间 
    a∙b=0→ 正交,相互垂直 
    a∙b<0→ 方向基本相反,夹角在90°到180°之间

    二、向量的外积(叉乘)

    定义

    概括地说,两个向量的外积,又叫叉乘、叉积向量积,其运算结果是一个向量而不是一个标量。并且两个向量的外积与这两个向量组成的坐标平面垂直。

    定义:向量ab的外积a×b是一个向量,其长度等于|a×b| = |a||b|sin∠(a,b),其方向正交于ab。并且,(a,b,a×b)构成右手系。 
    特别地,0×a = a×0 = 0.此外,对任意向量aa×a=0

    对于向量a和向量b:

    a和b的外积公式为:

    其中:

    根据i、j、k间关系,有:

    向量外积的性质

    1. a × b = -b × a. (反称性)
    2. a + μb) × c = λ(a ×c) + μ(b ×c). (线性)

    向量外积的几何意义

    在三维几何中,向量a和向量b的外积结果是一个向量,有个更通俗易懂的叫法是法向量,该向量垂直于a和b向量构成的平面。

    在3D图像学中,外积的概念非常有用,可以通过两个向量的外积,生成第三个垂直于a,b的法向量,从而构建X、Y、Z坐标系。如下图所示:

    在二维空间中,外积还有另外一个几何意义就是:|a×b|在数值上等于由向量a和向量b构成的平行四边形的面积。

     

    展开全文
  • 本篇内容主要是对线性代数中向量和外补充,同时说明一下向量的四则运算,如果对向量向量空间相关含义有所遗忘话可以回顾:1、算法工程师数学基础|线性代数中的向量向量空间 数学中运算包括:加减...

    线性代数主要包含向量、向量空间(或称线性空间)以及向量的线性变换和有限维的线性方程组。本篇文章主要介绍线性代数部分中的向量和向量空间。

    本篇内容主要是对线性代数中向量点积和外积补充,同时说明一下向量的四则运算,如果对向量和向量空间相关含义有所遗忘的话可以回顾:1、算法工程师的数学基础|线性代数中的向量和向量空间

    数学中的运算包括:加减乘除,同样向量的运算也包括这几项,需要注意的是,保证向量的维度相同。

    1、向量加减法

    加法和减法是可逆的运算,比如加一个数m可以转变为减去这个数m的负数-m。

    2、向量乘法

    3、向量乘以常数

    4、内积

    向量的内积又称为点乘或者数量乘。

    5、外积

    两个向量的外积又叫叉乘或者叉乘向量积,其运算结果是一个向量,并且两个向量的外积与这两个向量组成的平面垂直。

    展开全文
  • 向量点乘的含义

    万次阅读 2017-09-06 09:27:55
     二维空间两个向量 a =(x1,y1),b= (x2,y2),则它们数量积(内积、点积)为以下实数:  a*b=x1x2+y1y2 几何定义:  二维空间内有两个向量a和b,它们夹角为&(0  a*b = |a||b|cos& 点乘值: u...

    点乘:

    代数定义:

      二维空间的两个向量 a =(x1,y1),b= (x2,y2),则它们的数量积(内积、点积)为以下实数:

                a*b=x1x2+y1y2

    几何定义:

       二维空间内有两个向量a和b,它们的夹角为&(0<=&<=180),则内积定义为以下实数:

             a*b = |a||b|cos&

    点乘的值:
    u的大小、v的大小、u,v夹角的余弦。在u,v非零的前提下,点积如果为负,则u,v形成的角大于90度;如果为零,那么u,v垂直;如果为正,那么u,v形成的角为锐角。
    两个单位向量的点积得到两个向量夹角的cos值,通过它可以知道两个向量的相似性。在自然语言处理中,可以通过计算两篇文档向量的点积得到文档的相似性。



      

    展开全文
  • 1.向量内积 (1)内积 (2)解释 其中: (3)物理含义:即A在B向量上投影,乘以B向量模(长度)。特例:设向量B模为1,则A与B内积值等于A向B所在直线投影矢量长度。 2.基变换 (...

    一、理论必要性

    PCA需要矩阵和概率论基础知识,例如内积、基变换、方差、协方差、协方差矩阵等。只有理解这些基础知识,才可以更好理解PCA原理,以及应用场景。

    二、基础知识

    1.向量内积

    (1)内积

    (2)解释

    其中:

    (3)物理含义:即A在B向量上的投影,乘以B向量的模(长度)。特例:设向量B的模为1,则A与B的内积值等于A向B所在直线投影的矢量长度。

    2.基变换

    (1)基:(1,0)和(0,1)叫做二维空间中的一组基

    (2)基的要求

    基是正交的(即内积为0,或直观说相互垂直),即线性无关。

    (3)基变换定义

    数据与一个基做内积运算,结果作为第一个新的坐标分量,然后与第二个基做内积运算,结果作为第二个新坐标的分量。

    (4)举例(3,2)映射到\begin{bmatrix} 1/\sqrt{2} & 1/\sqrt{2}\\ -1/\sqrt{2} & 1/\sqrt{2} & \end{bmatrix}

    (5)两个矩阵相乘的意义:是将右边矩阵中的每一列列向量变换到左边矩阵中每一行行向量为基所表示的空间中去

    3.方差

    (1)定义:

    (2)针对样本的特征a

    其中:\mu为a的均值

    (3)意义:随意变量X的方差表达了X的取值与其数学期望值的偏离程度,若D(X)较小,意味着X的取值比较集中E(X)的附近;否则,表示X的取值比较分散。方差是衡量X取值分散成都的一个尺度。

    (4)计算公式

    4.协方差

    (1)协方差:定义

    (2)作用:表示两个特征值变量的相关性。如果结果为正值,则说明两者是正相关的;如果结果为负值, 就说明两者是负相关;如果为0,则两者之间没有关系。所以,可以用两个字段的协方差表示其相关性。

    5.相关系数

    (1)定义:随机变量XY的相关系数定义为

    (2)实际意义:

    相关系数绝对值越接近1,表明两者线性相关性较好;越接近0,表示两者线性相关程度越差;当等于0的时候,则X和Y不相关。

    6.协方差矩阵

    (1)协方差矩阵定义:设n维随机变量(X1,X2,...,Xn)矩阵为协方差矩阵

    其中:cij为第i和第j的特征的协方差。

    (2)一般每个体征变量都需要做归一化处理,所E(Xi)=0,i=1,2,3...,n

    协方差矩阵简化为:

    (3)协方差矩阵 在基的选择中作用

    当协方差为0时,表示两个字段完全独立。为了让协方差为0,选择第二个基时只能在与第一个基正交的方向上选择。因此最终选择的两个方向一定是正交的。

    展开全文
  • 和叉积在计算机图形学应用

    千次阅读 2020-05-29 23:05:20
    点积和叉积在计算机图形学中,是最为基础且重要的概念,初学者弄清它的概念的应用,是很重要的。...它是欧几里得空间的标准内积。点积的结果是一个数。 a→⋅b→=∣a∣∣b∣cosθ \overrightarrow{a}
  • 笛卡尔积的含义有 $N$ 个向量,按固定顺序从每个向量中取出一个元素排列成新的向量,所有新的向量的集合,就是这 $N$ 个向量的笛卡尔积。比如有三个向量 $A,B,C$:$A$$B$$C$$a_1$$b_1$$c_1$$a_2$$b_2$$c_2$$a_3$则 $...
  • 本篇主要讲解一个机器学习中很重要但又很基础的概念:梯度下降,经常用于寻找最小值,在近似公式和向量内积的基础上很容易理解 正文 需要解决的问题和思路 首先,梯度下降是为了渐进的寻找最小值,根据书中的例子,...
  • Numpy中常用10个矩阵操作示例

    千次阅读 2021-03-27 08:58:26
    我将包括本文中讨论的每个矩阵操作的含义、背景描述和代码示例。本文末尾的“关键要点”一节将提供一些更具体矩阵操作的简要总结。所以,一定要阅读这部分内容。 我将按照以下顺序讨论每个矩阵操作。 内积 点积 ...
  • 两个向量相乘表示向量的内积或数量积,几何含义为一个向量在另一个向量的映射。如下图所示,等高线为垂直于λ绿线。 2.TchebycheffApproach 表达式为: 如下图所示,等高线为绿色线,当为两个目标时候...
  • 观察上面式子,向量微分左边是函数对于向量的偏微分转置,从而转化为了向量的内积形式。因此,推广到矩阵 :上式中, 表示是矩阵trace,迹,含义是矩阵主对角线元素之和,之所以映入矩阵trace是因为它能...
  • 简单理解格拉姆矩阵(Gram matrix)

    千次阅读 2019-11-16 16:37:52
    从向量点乘角度有助于理解格拉姆矩阵。向量点乘可以看作衡量两个向量相似程度,对于二维向量来说,两个单位向量,方向一致...格拉姆矩阵就是由两两向量内积组成,如果到这里直接提出格拉姆矩阵可以度量各个维度自...
  • 两者都属于线性代数中内积和投影广义概念,即将一个向量投影到另一个向量上,以确定它在后者方向上“强度”。这个想法扩展到了神经网络领域,在这里我们将数据样本投影到矩阵每一行上,以确定它“适合”该行...
  • 正交补与矩阵正交补

    千次阅读 2019-02-19 09:42:44
    在线性代数和泛函分析中,积空间V的子空间W的正交补是正交于W中所有向量的所有V中向量的集合,即 W⊥={x∈V:∀y∈W&...正交补可以分为两部分来理解,第一是正交,向量正交的含义就是它们的点(...
  • 复数矩阵与酉矩阵2.1 复数向量2.1.1 复数向量的模长2.1.2 复数向量的内积2.1.3 复数向量的正交2.2 复数矩阵2.2.1 复数矩阵对称2.2.1 复正交矩阵--酉矩阵3. 二次型3.1 二次型定义3.2 二次型系数与矩阵对应关系...
  • 函数 含义 np.sin(arry)、cos(arry)、tan(arry) ...得到数组(又称向量的内积,结果是一个数 np.sum(a, axis) 求和,axis表示从哪个方向求 np.min()、np.max()、np.mean()、np.average() 参照np.sum(a...
  • PLA停止条件:找到一条“best”直线可以把圆圈和叉叉完美分开。 这就要求资料data是线性可分...上面公式含义:两个向量的内积几何意义是,一个向量在另一个向量上投影长度。所以就是平面上某一个点x到
  • RNN和半监督学习需要后面补上。 word embedding是想做一个什么事情呢,是希望把词汇用一个比较短的向量表达出来,因为通常词汇表达是...基于计数就是看两个词汇同时出现次数,用两个向量的内积与这个..
  • 关于GMM模型资料和 EM 参数估算资料,网上已经有很多了,今天想谈是GMM协方差矩阵分析、GMM参数更新方法 ...上面公式也提到了,协方差本质上是就是很多向量之间的内积内积是什么?  举个例子说明,
  • 漫步线性代数十五——余弦和投影

    千次阅读 2016-09-03 20:09:27
    满足xTy=0x^Ty=0的向量是正交的,现在我们考虑...假设我们想要找出点bb到向量aa所在直线的距离,那么我们就需要沿着直线找到离点bb最近的点pp,几何上的含义就是:连接b,pb,p的线(图1)与aa垂直。基于这个事实,我们可
  • 以前从未深入想过格林公式的含义,只是隐约知道二维的面积积分和一维的曲线积分有什么关联,书上也讲得很含糊,不肯...那么公式的右边是什么玩意儿,想了很久,右边可以看作向量场和路径向量内积( <P,Q >...
  • (2) input vector分别与(num_samples + 1)个向量内积,得到预测值x,x 与y做交叉熵loss(此时维度为batch_size * (num_samples + 1)) (3) 然后用ones矩阵和loss矩阵相乘,得到batch_size *1 loss向量...

空空如也

空空如也

1 2
收藏数 29
精华内容 11
关键字:

向量内积的含义