精华内容
下载资源
问答
  • 机器学习距离公式总结

    千次阅读 多人点赞 2015-02-07 22:18:29
    处理之后的欧几里得距离就是原样本的马氏距离:为了书写方便,这里求马氏距离的平方): 下图蓝色表示原样本点的分布,两颗红星坐标分别是(3, 3),(2, -2): 由于 x, y 方向的尺度不同,不能单纯用...

    作者:daniel-D 出处:http://www.cnblogs.com/daniel-D/

    在机器学习和数据挖掘中,我们经常需要知道个体间差异的大小,进而评价个体的相似性和类别。最常见的是数据分析中的相关分析,数据挖掘中的分类和聚类算法,如 K 最近邻(KNN)和 K 均值(K-Means)等等。根据数据特性的不同,可以采用不同的度量方法。一般而言,定义一个距离函数 d(x,y), 需要满足下面几个准则:

    1) d(x,x) = 0                    // 到自己的距离为0
    2) d(x,y) >= 0                  // 距离非负
    3) d(x,y) = d(y,x)                   // 对称性: 如果 A 到 B 距离是 a,那么 B 到 A 的距离也应该是 a
    4) d(x,k)+ d(k,y) >= d(x,y)    // 三角形法则: (两边之和大于第三边)

    这篇博客主要介绍机器学习和数据挖掘中一些常见的距离公式,包括:

    1. 闵可夫斯基距离
    2. 欧几里得距离
    3. 曼哈顿距离
    4. 切比雪夫距离
    5. 马氏距离
    6. 余弦相似度
    7. 皮尔逊相关系数
    8. 汉明距离
    9. 杰卡德相似系数
    10. 编辑距离
    11. DTW 距离
    12. KL 散度

     

    1. 闵可夫斯基距离

    闵可夫斯基距离(Minkowski distance)是衡量数值点之间距离的一种非常常见的方法,假设数值点 P 和 Q 坐标如下:

    那么,闵可夫斯基距离定义为:

    该距离最常用的 p 是 2 和 1, 前者是欧几里得距离(Euclidean distance),后者是曼哈顿距离(Manhattan distance)。假设在曼哈顿街区乘坐出租车从 P 点到 Q 点,白色表示高楼大厦,灰色表示街道:

    绿色的斜线表示欧几里得距离,在现实中是不可能的。其他三条折线表示了曼哈顿距离,这三条折线的长度是相等的。

    当 p 趋近于无穷大时,闵可夫斯基距离转化成切比雪夫距离(Chebyshev distance):

    我们知道平面上到原点欧几里得距离(p = 2)为 1 的点所组成的形状是一个圆,当 p 取其他数值的时候呢?

    注意,当 p < 1 时,闵可夫斯基距离不再符合三角形法则,举个例子:当 p < 1, (0,0) 到 (1,1) 的距离等于 (1+1)^{1/p} > 2, 而 (0,1) 到这两个点的距离都是 1。

    闵可夫斯基距离比较直观,但是它与数据的分布无关,具有一定的局限性,如果 x 方向的幅值远远大于 y 方向的值,这个距离公式就会过度放大 x 维度的作用。所以,在计算距离之前,我们可能还需要对数据进行 z-transform 处理,即减去均值,除以标准差:

     : 该维度上的均值
     : 该维度上的标准差

    可以看到,上述处理开始体现数据的统计特性了。这种方法在假设数据各个维度不相关的情况下利用数据分布的特性计算出不同的距离。如果维度相互之间数据相关(例如:身高较高的信息很有可能会带来体重较重的信息,因为两者是有关联的),这时候就要用到马氏距离(Mahalanobis distance)了。

     

    2. 马氏距离

    考虑下面这张图,椭圆表示等高线,从欧几里得的距离来算,绿黑距离大于红黑距离,但是从马氏距离,结果恰好相反:

    马氏距离实际上是利用 Cholesky transformation 来消除不同维度之间的相关性和尺度不同的性质。假设样本点(列向量)之间的协方差对称矩阵是  , 通过 Cholesky Decomposition(实际上是对称矩阵 LU 分解的一种特殊形式,可参考之前的博客)可以转化为下三角矩阵和上三角矩阵的乘积:  。消除不同维度之间的相关性和尺度不同,只需要对样本点 x 做如下处理: 。处理之后的欧几里得距离就是原样本的马氏距离:为了书写方便,这里求马氏距离的平方):

    下图蓝色表示原样本点的分布,两颗红星坐标分别是(3, 3),(2, -2):

    由于 x, y 方向的尺度不同,不能单纯用欧几里得的方法测量它们到原点的距离。并且,由于 x 和 y 是相关的(大致可以看出斜向右上),也不能简单地在 x 和 y 方向上分别减去均值,除以标准差。最恰当的方法是对原始数据进行 Cholesky 变换,即求马氏距离(可以看到,右边的红星离原点较近):

    将上面两个图的绘制代码和求马氏距离的代码贴在这里,以备以后查阅:

    # -*- coding=utf-8 -*-
    
    # code related at: http://www.cnblogs.com/daniel-D/
    
    import numpy as np
    import pylab as pl
    import scipy.spatial.distance as dist
    
    
    def plotSamples(x, y, z=None):
    
        stars = np.matrix([[3., -2., 0.], [3., 2., 0.]])
        if z is not None:
            x, y = z * np.matrix([x, y])
            stars = z * stars
    
        pl.scatter(x, y, s=10)    # 画 gaussian 随机点
        pl.scatter(np.array(stars[0]), np.array(stars[1]), s=200, marker='*', color='r')  # 画三个指定点
        pl.axhline(linewidth=2, color='g') # 画 x 轴
        pl.axvline(linewidth=2, color='g')  # 画 y 轴
    
        pl.axis('equal')
        pl.axis([-5, 5, -5, 5])
        pl.show()
    
    
    # 产生高斯分布的随机点
    mean = [0, 0]      # 平均值
    cov = [[2, 1], [1, 2]]   # 协方差
    x, y = np.random.multivariate_normal(mean, cov, 1000).T
    plotSamples(x, y)
    
    covMat = np.matrix(np.cov(x, y))    # 求 x 与 y 的协方差矩阵
    Z = np.linalg.cholesky(covMat).I  # 仿射矩阵
    plotSamples(x, y, Z)
    
    # 求马氏距离 
    print '\n到原点的马氏距离分别是:'
    print dist.mahalanobis([0,0], [3,3], covMat.I), dist.mahalanobis([0,0], [-2,2], covMat.I)
    
    # 求变换后的欧几里得距离
    dots = (Z * np.matrix([[3, -2, 0], [3, 2, 0]])).T
    print '\n变换后到原点的欧几里得距离分别是:'
    print dist.minkowski([0, 0], np.array(dots[0]), 2), dist.minkowski([0, 0], np.array(dots[1]), 2)


     

    马氏距离的变换和 PCA 分解的白化处理颇有异曲同工之妙,不同之处在于:就二维来看,PCA 是将数据主成分旋转到 x 轴(正交矩阵的酉变换),再在尺度上缩放(对角矩阵),实现尺度相同。而马氏距离的 L逆矩阵是一个下三角,先在 x 和 y 方向进行缩放,再在 y 方向进行错切(想象矩形变平行四边形),总体来说是一个没有旋转的仿射变换。

     

    3. 向量内积

    向量内积是线性代数里最为常见的计算,实际上它还是一种有效并且直观的相似性测量手段。向量内积的定义如下:

    直观的解释是:如果 x 高的地方 y 也比较高, x 低的地方 y 也比较低,那么整体的内积是偏大的,也就是说 x 和 y 是相似的。举个例子,在一段长的序列信号 A 中寻找哪一段与短序列信号 a 最匹配,只需要将 a 从 A 信号开头逐个向后平移,每次平移做一次内积,内积最大的相似度最大。信号处理中 DFT 和 DCT 也是基于这种内积运算计算出不同频域内的信号组分(DFT 和 DCT 是正交标准基,也可以看做投影)。向量和信号都是离散值,如果是连续的函数值,比如求区间[-1, 1] 两个函数之间的相似度,同样也可以得到(系数)组分,这种方法可以应用于多项式逼近连续函数,也可以用到连续函数逼近离散样本点(最小二乘问题,OLS coefficients)中,扯得有点远了- -!。

    向量内积的结果是没有界限的,一种解决办法是除以长度之后再求内积,这就是应用十分广泛的余弦相似度(Cosine similarity):

    余弦相似度与向量的幅值无关,只与向量的方向相关,在文档相似度(TF-IDF)和图片相似性(histogram)计算上都有它的身影。需要注意一点的是,余弦相似度受到向量的平移影响,上式如果将 x 平移到 x+1, 余弦值就会改变。怎样才能实现平移不变性?这就是下面要说的皮尔逊相关系数(Pearson correlation),有时候也直接叫相关系数:

    皮尔逊相关系数具有平移不变性和尺度不变性,计算出了两个向量(维度)的相关性。不过,一般我们在谈论相关系数的时候,将 x 与 y 对应位置的两个数值看作一个样本点,皮尔逊系数用来表示这些样本点分布的相关性。

    由于皮尔逊系数具有的良好性质,在各个领域都应用广泛,例如,在推荐系统根据为某一用户查找喜好相似的用户,进而提供推荐,优点是可以不受每个用户评分标准不同和观看影片数量不一样的影响。

     

    4. 分类数据点间的距离

    汉明距离(Hamming distance)是指,两个等长字符串s1与s2之间的汉明距离定义为将其中一个变为另外一个所需要作的最小替换次数。举个维基百科上的例子:

    还可以用简单的匹配系数来表示两点之间的相似度——匹配字符数/总字符数。

    在一些情况下,某些特定的值相等并不能代表什么。举个例子,用 1 表示用户看过该电影,用 0 表示用户没有看过,那么用户看电影的的信息就可用 0,1 表示成一个序列。考虑到电影基数非常庞大,用户看过的电影只占其中非常小的一部分,如果两个用户都没有看过某一部电影(两个都是 0),并不能说明两者相似。反而言之,如果两个用户都看过某一部电影(序列中都是 1),则说明用户有很大的相似度。在这个例子中,序列中等于 1 所占的权重应该远远大于 0 的权重,这就引出下面要说的杰卡德相似系数(Jaccard similarity)。

    在上面的例子中,用 M11 表示两个用户都看过的电影数目,M10 表示用户 A 看过,用户 B 没看过的电影数目,M01 表示用户 A 没看过,用户 B 看过的电影数目,M00 表示两个用户都没有看过的电影数目。Jaccard 相似性系数可以表示为:

    Jaccard similarity 还可以用集合的公式来表达,这里就不多说了。

    如果分类数值点是用树形结构来表示的,它们的相似性可以用相同路径的长度来表示,比如,“/product/spot/ballgame/basketball” 离“product/spot/ballgame/soccer/shoes” 的距离小于到 "/product/luxury/handbags" 的距离,以为前者相同父节点路径更长。

     

    5. 序列之间的距离

    上一小节我们知道,汉明距离可以度量两个长度相同的字符串之间的相似度,如果要比较两个不同长度的字符串,不仅要进行替换,而且要进行插入与删除的运算,在这种场合下,通常使用更加复杂的编辑距离(Edit distance, Levenshtein distance)等算法。编辑距离是指两个字串之间,由一个转成另一个所需的最少编辑操作次数。许可的编辑操作包括将一个字符替换成另一个字符,插入一个字符,删除一个字符。编辑距离求的是最少编辑次数,这是一个动态规划的问题,有兴趣的同学可以自己研究研究。

    时间序列是序列之间距离的另外一个例子。DTW 距离(Dynamic Time Warp)是序列信号在时间或者速度上不匹配的时候一种衡量相似度的方法。神马意思?举个例子,两份原本一样声音样本A、B都说了“你好”,A在时间上发生了扭曲,“你”这个音延长了几秒。最后A:“你~~~好”,B:“你好”。DTW正是这样一种可以用来匹配A、B之间的最短距离的算法。

    DTW 距离在保持信号先后顺序的限制下对时间信号进行“膨胀”或者“收缩”,找到最优的匹配,与编辑距离相似,这其实也是一个动态规划的问题:

    实现代码(转自 McKelvin's Blog ):

     

    #!/usr/bin/python2
    # -*- coding:UTF-8 -*-
    # code related at: http://blog.mckelv.in/articles/1453.html
     
    import sys
     
    distance = lambda a,b : 0 if a==b else 1
     
    def dtw(sa,sb):
        '''
        >>>dtw(u"干啦今今今今今天天气气气气气好好好好啊啊啊", u"今天天气好好啊")
        2
        '''
        MAX_COST = 1<<32
        #初始化一个len(sb) 行(i),len(sa)列(j)的二维矩阵
        len_sa = len(sa)
        len_sb = len(sb)
        # BUG:这样是错误的(浅拷贝): dtw_array = [[MAX_COST]*len(sa)]*len(sb)
        dtw_array = [[MAX_COST for i in range(len_sa)] for j in range(len_sb)]
        dtw_array[0][0] = distance(sa[0],sb[0])
        for i in xrange(0, len_sb):
            for j in xrange(0, len_sa):
                if i+j==0:
                    continue
                nb = []
                if i > 0: nb.append(dtw_array[i-1][j])
                if j > 0: nb.append(dtw_array[i][j-1])
                if i > 0 and j > 0: nb.append(dtw_array[i-1][j-1])
                min_route = min(nb)
                cost = distance(sa[j],sb[i])
                dtw_array[i][j] = cost + min_route
        return dtw_array[len_sb-1][len_sa-1]
     
     
    def main(argv):
        s1 = u'干啦今今今今今天天气气气气气好好好好啊啊啊'
        s2 = u'今天天气好好啊'
        d = dtw(s1, s2)
        print d
        return 0
     
    if __name__ == '__main__':
        sys.exit(main(sys.argv))


     

     

    6. 概率分布之间的距离

    前面我们谈论的都是两个数值点之间的距离,实际上两个概率分布之间的距离是可以测量的。在统计学里面经常需要测量两组样本分布之间的距离,进而判断出它们是否出自同一个 population,常见的方法有卡方检验(Chi-Square)和 KL 散度( KL-Divergence),下面说一说 KL 散度吧。

    先从信息熵说起,假设一篇文章的标题叫做“黑洞到底吃什么”,包含词语分别是 {黑洞, 到底, 吃什么}, 我们现在要根据一个词语推测这篇文章的类别。哪个词语给予我们的信息最多?很容易就知道是“黑洞”,因为“黑洞”这个词语在所有的文档中出现的概率太低啦,一旦出现,就表明这篇文章很可能是在讲科普知识。而其他两个词语“到底”和“吃什么”出现的概率很高,给予我们的信息反而越少。如何用一个函数 h(x) 表示词语给予的信息量呢?第一,肯定是与 p(x) 相关,并且是负相关。第二,假设 x 和 y 是独立的(黑洞和宇宙不相互独立,谈到黑洞必然会说宇宙),即 p(x,y) = p(x)p(y), 那么获得的信息也是叠加的,即 h(x, y) = h(x) + h(y)。满足这两个条件的函数肯定是负对数形式:

    对假设一个发送者要将随机变量 X 产生的一长串随机值传送给接收者, 接受者获得的平均信息量就是求它的数学期望:

    这就是熵的概念。另外一个重要特点是,熵的大小与字符平均最短编码长度是一样的(shannon)。设有一个未知的分布 p(x), 而 q(x) 是我们所获得的一个对 p(x) 的近似,按照 q(x) 对该随机变量的各个值进行编码,平均长度比按照真实分布的 p(x) 进行编码要额外长一些,多出来的长度这就是 KL 散度(之所以不说距离,是因为不满足对称性和三角形法则),即:

    KL 散度又叫相对熵(relative entropy)。了解机器学习的童鞋应该都知道,在 Softmax 回归(或者 Logistic 回归),最后的输出节点上的值表示这个样本分到该类的概率,这就是一个概率分布。对于一个带有标签的样本,我们期望的概率分布是:分到标签类的概率是 1, 其他类概率是 0。但是理想很丰满,现实很骨感,我们不可能得到完美的概率输出,能做的就是尽量减小总样本的 KL 散度之和(目标函数)。这就是 Softmax 回归或者 Logistic 回归中 Cost function 的优化过程啦。(PS:因为概率和为 1,一般的 logistic 二分类的图只画了一个输出节点,隐藏了另外一个)

     


     

    待补充的方法:

    卡方检验 Chi-Square

    衡量 categorical attributes 相关性的 mutual information

    Spearman's rank coefficient

    Earth Mover's Distance

    SimRank 迭代算法等。

     

    参考资料:

    1. 距离和相似性度量
    2. Machine Learning: Measuring Similarity and Distance
    3. What is Mahalanobis distance?
    4. Cosine similarity, Pearson correlation, and OLS coefficients
    5. 机器学习中的相似性度量
    6. 动态时间归整 | DTW | Dynamic Time Warping

     

     
    展开全文
  • 矩阵论公式总结

    千次阅读 2019-11-23 10:32:01
    在线latex公式编辑 https://www.codecogs.com/latex/eqneditor.php?lang=zh-cn 矩阵云算网 http://www.yunsuan.info/matrixcomputations/index.html 文章目录 一、 λ \lambda λ 矩阵与 Jordan 标准形 1.1 ...

    在线latex公式编辑
    https://private.codecogs.com/latex/eqneditor.php?lang=zh-cn
    矩阵云算网
    http://www.yunsuan.info/matrixcomputations/index.html

    一、λ\lambda 矩阵与 Jordan 标准形

    1.1 零多项式、零次多项式

    零多项式: 0(没有次数)
    零次多项式: 常数(次数为0,也就是λ\lambda次数为0)

    1.2 不变因子、行列式因子、初等因子

    (1)不变因子 d(λ)d(\lambda)
    初等变换后得到的d1(λ)d_{1}(\lambda),d1(λ)d_{1}(\lambda)都是首项系数为1的多项式,并且d1(λ)d2(λ)d_{1}(\lambda)|d_{2}(\lambda),d2(λ)d_{2}(\lambda)整除A2(λ)A_{2}(\lambda)的全部元素.d1(λ)d_{1}(\lambda),d1(λ)d_{1}(\lambda)…称为不变因子.
    在这里插入图片描述

    (2)行列式因子 D(λ)D(\lambda)
    A(λ)A(\lambda)全部kk阶子式的最大公因式称为A(λ)A(\lambda)kk阶行列式因子,记为Dk(λ)D_{k}(\lambda).(K阶子式是指行列式)
    ① 先看1阶子式,假设现在是3阶矩阵,然后看9个多项式行列式的最大公因式.
    ② 2阶子式共9个2阶行列式,先算每个的2阶的行列式,然后综合9个求最大公因式(假如是m*n的矩阵,则共有 Cm2Cn2C_{m}^{2}\ast C_{n}^{2} 个 ).
    ③ 3阶子式就是直接算这个矩阵的行列式.

    (3)初等因子
    在得到不变因子后,除去 1 之后的因子 称为矩阵的初等因子.
    在这里插入图片描述
    行列式因子和不变因子的关系
    在这里插入图片描述

    根据初等因子得不变因子
    秩和初等因子可以唯一确定不变因子.
    在这里插入图片描述
    先从第一个开始λ\lambda看,看后面有没有次数比它高的因式,有是λ2\lambda^{2},往后看是λ1\lambda-1,后面有次数更高的因式(λ1)3(\lambda-1)^{3},于是它们相乘得到d4(λ)d_{4}(\lambda) ,按此方法直到最后一个.

    1.3 相抵

    定理3.3.1 相抵的λ\lambda矩阵具有相同的秩、相同的各阶行列式因子、不变因子.
    定理3.3.3 A(λ)A(\lambda)B(λ)B(\lambda)相抵<=>它们有相同的行列式因子,或者相同的不变因子.

    1.4 相似

    • 定理3.4.1 n阶矩阵A与B相似 <=> λIB\lambda I-BλIA\lambda I-A相抵(等价).

    • 定义3.4.1 设A是n阶数字矩阵,其特征矩阵 λIA\lambda I-A 的行列式因子、不变因子、初等因子分别称为 A 的行列式因子、不变因子、初等因子.

    • 定理3.4.2 n阶矩阵A与B相似 <=> 它们有相同的行列式因子或者相同的不变因子或者初等因子.(两个矩阵都不可相似对角化时用这个判断,下面便是这种情况)
      在这里插入图片描述

    • 定理3.5.3 A与一个对角矩阵相似<=>A的初等因子都是一次的.

    1.5 初等因子与Jordan标准形的关系

    在这里插入图片描述
    假如现在得到的初等因子为λ1\lambda-1,(λ1)2(\lambda-1)^{2},则Jordan标准型如下:

    [100011001]\begin{bmatrix} 1 &0 &0 \\ 0 &1 &1 \\ 0 &0 &1 \end{bmatrix}

    ①首先λ1\lambda-1是一次,Jordan块是一行一列,λ\lambda减去的是1所以值为1,
    ②然后(λ1)2(\lambda-1)^{2}是二次,Jordan块是两行两列,对角线值为1,因为是(λ1)(\lambda-1),对角线上面斜线内填入非零常数.

    例题
    求矩阵的Jordan标准形的两种方法
    https://wenku.baidu.com/view/d9700a18482fb4daa58d4b60.html

    Jordan标准形例题

    (1) 求矩阵的Jordan标准形
    方法一:
    在这里插入图片描述
    上面例子得到,对任意的n阶矩阵 AA ,存在 nn 阶可逆矩阵P使得 P1AP=JP^{-1}AP=J 为Jordan标准形.
    方法二:
    还有方法就是求出特征值,就得到了Jordan标准形.

    代码计算Jordan标准形、变换矩阵P

    import numpy as np
    from sympy import Matrix
    import sympy
    import pprint
    # 设置输出结果不用科学计数法表示
    np.set_printoptions(suppress=True)
    
    # A为要分解的矩阵
    A = np.array([[1,-5,0],[0,2,0],[-2,-19,1]])
    a = Matrix(A)
    P, Ja = a.jordan_form()
    
    pprint.pprint(Ja)
    pprint.pprint(P)
    
    
    # 这里可以输入自己计算出来的p进行验算
    p = np.array([[5/9,0,-1/2],[-1/9,0,0],[1,1,1]])
    p_ = np.linalg.inv(p)
    J = np.dot(np.dot(p_,A),p)
    pprint.pprint(J)
    

    (2) 求变换矩阵P的方法
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    (3) 求完变换矩阵P后,可以用来求解 eA,eAt,sinAte^{A} ,e^{At} ,sinAt.后面有例题.

    1.6 Cayley-Hamilton 定理

    定理3.6.1 设A是n阶矩阵, f(λ)f(\lambda)是A的特征多项式,则f(A)=0f(A)=0.
    定义3.6.1 设A为n阶矩阵, 如果存在多项式 φ(λ)\varphi(\lambda) 使得 φ(A)=0\varphi(A)=0 则称φ(λ)\varphi(\lambda)为A的化零多项式.
    对任意n阶矩阵A,f(λ)f(\lambda)是A的特征多项式,由定理3.6.1知f(λ)f(\lambda)为A的化零多项式,如果g(λ)g(\lambda)是任意多项式,则g(λ)g(\lambda)f(λ)f(\lambda)也是A的化零多项式(共有无穷多个).

    定理3.6.2 n阶矩阵A的所有化零多项式中,次数最低且首项系数为1的多项式称为A的最小多项式.

    例题 : 矩阵最小多项式的特征多项式求法 (最小多项式要去一个个试)
    https://wenku.baidu.com/view/291b2e8d5fbfc77da369b145.html

    四、矩阵的因子分解

    4.1 初等矩阵

    4.1.1 初等矩阵

    u,vϵCnu,v\epsilon \mathbb{C}^{n},σ\sigma为一复数,如下形式的矩阵
    E(u,v,σ)=IσuvHE(u,v,\sigma)=I-\sigma uv^{H}
    称为初等矩阵.
    线性代数中所用的初等矩阵都可以用初等矩阵 E(u,v,σ)E(u,v,\sigma) 表示,也就是用这个式子,通过给 u,v,σu,v,\sigma 赋不同的值,可以倒出其他形式的矩阵,例如初等下三角矩阵Householder矩阵(Hermite初等矩阵).

    4.1.2 初等下三角矩阵

    在这里插入图片描述

    4.2 满秩分解

    定理 4.2.1 满秩分解定理m×nm\times n 矩阵的秩为 r>0r>0, 则存在 m×rm\times r 矩阵B和 r×nr\times n 矩阵C使得 A=BCA=BC, 并且rank(B)=rank(C)=rrank(B)=rank(C) = r.

    知识点1
    如果

    L1=[100110201]L_{1}=\begin{bmatrix} 1 &0 &0 \\ -1 &1 &0 \\ 2 &0 &1 \end{bmatrix}L2=[100010011]L_{2}=\begin{bmatrix} 1 &0 &0 \\ 0 &1 &0 \\ 0 &-1 &1 \end{bmatrix}

    则:
    L1L2=[100110211]L_{1}L_{2}=\begin{bmatrix} 1 &0 &0 \\ -1 &1 &0 \\ 2 &-1 &1 \end{bmatrix}
    在这里插入图片描述
    知识点2
    用初等下三角矩阵左乘一个矩阵,等于高斯消元操作

    A=[121234212][121076050]A=\begin{bmatrix} 1 &2 &-1 \\ 2 &-3 &4 \\ -2 &1 &2 \end{bmatrix} \rightarrow \begin{bmatrix} 1 &2 &-1 \\ 0 &-7 &6 \\ 0 &5 &0 \end{bmatrix}

    等价于

    [100210201]A=[121076050]\begin{bmatrix} 1 &0 &0 \\ -2 &1 &0 \\ 2 &0 &1 \end{bmatrix}\cdot A=\begin{bmatrix} 1 &2 &-1 \\ 0 &-7 &6 \\ 0 &5 &0 \end{bmatrix}

    [100210201][121234212]=[121076050]\Rightarrow \begin{bmatrix} 1 &0 &0 \\ -2 &1 &0 \\ 2 &0 &1 \end{bmatrix}\cdot \begin{bmatrix} 1 &2 &-1 \\ 2 &-3 &4 \\ -2 &1 &2 \end{bmatrix}=\begin{bmatrix} 1 &2 &-1 \\ 0 &-7 &6 \\ 0 &5 &0 \end{bmatrix}
    A左侧的矩阵左下角的值,求法如下:
    在这里插入图片描述
    下面看一个满秩分解的例题:
    在这里插入图片描述

    4.3 三角分解(LU分解)

    定理4.3.1 LU分解定理AA 是n阶非奇异矩阵,则存在唯一的单位下三角矩阵 LL上三角矩阵 UU 使得 A=LUA=LU 的充分必要条件是 AA 的所有顺序主子式均非零.
    在这里插入图片描述
    在这里插入图片描述
    用待定系数法,先写出LU的格式,然后一点点算.或者看下面的:
    在这里插入图片描述
    定理4.3.2 LDU分解定理AAnn阶非奇异矩阵,则存在惟一的单位下三角矩阵LL,对角矩阵 D=diag(d1,d2,...,dn)D=diag(d_{1},d_{2},...,d_{n}) 和单位上三角矩阵 UU 使得 A=LDUA=LDU.
    接上面的例题,对U再次分解

    U=[200030006][11/23/2011/3001]U=\begin{bmatrix} 2 &0 &0 \\ 0 &3 &0 \\ 0 &0 &6 \end{bmatrix}\begin{bmatrix} 1 &1/2 &3/2 \\ 0 &1 &1/3 \\ 0 &0 &1 \end{bmatrix}

    LDU分解参考 https://zhidao.baidu.com/question/988941708785428419.html

    LU分解在求解线性方程组中的应用:
    在这里插入图片描述

    在这里插入图片描述

    4.4 QR分解

    定理4.4.1 设A是n阶非奇异(复)矩阵,则存在正交矩阵Q(也称酉矩阵)和非奇异实(复)上三角矩阵R使得 A=QRA = QR, 且除去相差一个对角元绝对值(模)全等于1的对角矩阵因子外分解式(4.4.1)是惟一的.

    下面先看一个例题:
    例题 https://wenku.baidu.com/view/6872ac728e9951e79b892700.html
    在这里插入图片描述

    施密特正交化:
    在这里插入图片描述
    另外参考:
    计算方法(三)矩阵分解1-正交分解(QR分解)
    https://blog.csdn.net/weixin_33802505/article/details/91741893

    4.5 Schur定理与正规矩阵

    定义2.7.1 如果n阶实矩阵A满足ATA=AAT=IA^{T}A=AA^{T}=I则称A为正交矩阵.如果n阶复矩阵A满足AHA=AAH=IA^{H}A=AA^{H}=I则称A为酉矩阵.

    定义4.5.1 设A,B ϵRn×n\epsilon R ^ { n \times n} ,如果存在n阶正交(酉)矩阵U使得
    UTAU=U1AU=BU^{T}AU=U^{-1}AU=B则称A正交(酉)相似与B.

    定理4.5.1(考试不考分解计算) 任何一个nn阶复矩阵 AA 都酉相似于一个上三角矩阵,即存在一个nn阶酉矩阵 UU 和一个n阶上三角矩阵 RR 使得
    UHAU=RU^{H}AU = R其中 RR 的对角元是 AA 的特征值,它们可以按要求的次序排列.

    定义4.5.2AϵCm×nA\epsilon \mathbb{C}^{m\times n},如果
    AAH=AHAAA^{H}=A^{H}A则称A为正规矩阵.

    4.6 奇异值分解

    参考李航P283例题
    手写求解注意:
    假如 AA 为4x2的矩阵, 分解后 UΣVTU\Sigma V^{T}, 分别为4x4,4x2,2x2

    AATAA^{T}或者AHAA^{H}A 是去求 VTV^{T},此时VTV^{T}是2x2,所以AATAA^{T}或者AHAA^{H}A需要是2x2

    通过判断应该计算AHAA^{H}A,2x2

    得到的特征向量需要单位化, 因为 UUVTV^{T} 都是正交矩阵.

    下面是最早记录的内容,可能有误!

    AAHAA^{H} 还是 , 这取决于A的形状,如果是 2×32 \times 3 的则用AAHAA^{H},这样得到 2×22 \times 2,如果是后者3×23 \times 2的,则用AHAA^{H}A.
    ② 求矩阵U时,先用非零特征值求 1σiAvi\frac{1}{\sigma_{i} }Av_{i},之后再用ATx=0A^{T}x=0 求解另一组标准正交基.

    矩阵云算网
    http://www.yunsuan.info/matrixcomputations/index.html

    五、Hermite矩阵与正定矩阵

    5.1 Hermite矩阵概念引入

    先来看一下介绍
    在这里插入图片描述

    定理5.1.1 A=ajkϵCm×nA=a_{jk} \epsilon C^{m\times n}, A是Hermite矩阵的充分必要条件是对任意xϵCnx\epsilon C^{n}, xHAxx^{H}Ax是实数.
    相合的定义 对两个n阶实矩阵AABB,若存在一个可逆实方阵PP,使得 B=PTAPB=P^{T}AP,则称BBAA实相合的。

    矩阵的惯性 π(A),v(A),δ(A)\pi(A),v(A),\delta (A) 分别为矩阵A的正特征值、负特征值、虚特征值的个数,记ln(A)=π(A),v(A),δ(A)ln(A)={\pi(A),v(A),\delta (A)}则称 ln(A)ln(A) 为矩阵A的惯性.

    定理5.1.6 Sylvester惯性定律 设A,B均为n阶Hermite矩阵,则A与B相合的充分必要条件是ln(A)=ln(B)ln(A)=ln(B)

    紧跟着上一条如下,简单点说: 实对称矩阵的秩 等于 非零特征值的个数.在这里插入图片描述


    5.2 Hermite矩阵二次型、正定(非负定)矩阵

    先看一下实数中的二次型
    https://wenku.baidu.com/view/c993a930783e0912a3162a0b.html
    在这里插入图片描述
    在这里插入图片描述
    (s=Π(A)s= \Pi(A) 代表的是正特征值的个数,看上面这里r-s就好理解了,因为实对称矩阵的秩 等于 非零特征值的个数).

    正定的充分必要条件
    在这里插入图片描述
    以下内容在证明中用的较多:
    在这里插入图片描述
    证明过程:
    在这里插入图片描述
    接上一张
    在这里插入图片描述
    在这里插入图片描述
    定理5.2.3 n阶Hermite矩阵A正定的充分必要条件是A的顺序主子式均为正数
    定理5.2.3 n阶Hermite矩阵A正定的充分必要条件是A的所有主子式全大于零.


    例题5.2.2
    在这里插入图片描述
    注解1: 若AC=CAAC=CA 这个条件去掉,则AC特征值大于0
    注解2: 若A>0,C0A>0,C\geqslant 0AC=CAAC=CA,则AC0AC\geqslant0

    定理5.2.6 n阶Hermite矩阵A正定的充分必要条件是存在n阶非奇异下三角矩阵L使得A=LLHA=LL^{H}这个式子称为正定矩阵A的Cholesky分解.
    注解: 若A>0,AH=AA>0,A^{H}=A , 则A的对角元 aij>0a_{ij}>0.

    另外可参考 Cholesky分解及一个例子

    定义5.2.2A,BCm×nA,B\in C ^{ m \times n},如果存在负数 λ\lambda 和非零向量xCnx \in C^{n}使得Ax=λBx(5.2.5)Ax=\lambda Bx \qquad (5.2.5) 则称λ\lambda为广义特征值问题 Ax=λBxAx=\lambda Bx 的特征值,非零向量 xx 称为对应于特征值λ\lambda的特征向量.

    ★定理5.2.7 设A,B均为n阶Hermite矩阵,且B>0B>0,则存在非奇异矩阵P使得PHAP=diag(λ1,...,λn),PHBP=IP^{H}AP=diag(\lambda_{1},...,\lambda_{n}), P^{H}BP=I其中λ1,...,λn\lambda_{1},...,\lambda_{n}是广义特征值问题(上面5.2.5)的特征值.
    (注意:这里A,B是实对称矩阵,B>0B>0,对于A不知道.)
    在这里插入图片描述

    5.3 矩阵不等式

    定义5.3.1 设A,B都是n阶Hermite矩阵,如果AB0A-B\geq0,则称A大于或等于B,记作ABA\geq B.

    定理5.3.1 设A,B,C均为n阶Hermite矩阵,则AB(AB>B)A\geq B(AB>B)的充分必要条件是对任意n阶可逆矩阵P都有

    PHAPPHBP(PHAP>PHBP)P^{H}AP\geq P^{H}BP(P^{H}AP> P^{H}BP)
    ⑵ 若A>0(A0),C>0(C0)A>0(A\geq 0),C>0(C\geq 0),且AC=CAAC=CA,则AC>0(AC0)AC>0(AC\geq 0)

    定理5.3.2
    在这里插入图片描述

    定理5.3.3 设A是n阶Hermite矩阵,则 λmin(A)IAλmax(A)I\lambda _{min}(A)I\leq A \leq \lambda_{max}(A)I, 这时λmax(A)\lambda _{max}(A)λmin(A)\lambda _{min}(A)分别表示A的最大和最小特征值.

    定理5.3.4 设A,B均为n阶Hermite正定矩阵,则
    (1)若AB>0A\geq B>0,则B1A1>0B^{-1} \geq A^{-1}>0.
    (2)若A>B>0A> B>0,则B1>A1>0B^{-1} > A^{-1}>0.
    在这里插入图片描述
    定理5.3.5 设A.B均为n阶Hermite正定矩阵,且AB=BA,则
    (1)若ABA\geq B,则A2B2A^{2}\geq B^{2}.
    (2)若A>BA>B,则A2>B2A^{2} > B^{2}.
    在这里插入图片描述

    六、范数与极限

    6.1 向量范数

    1范数: 各个元素的绝对值之和
    x1=i=1nxi\parallel x\parallel _{1}=\sum_{i=1}^{n}\mid x_{i}\mid

    2范数: 每个元素的平方和再开平方根
    x2=(i=1nxi2)12\parallel x\parallel _{2}=(\sum_{i=1}^{n}\mid x_{i}\mid^{2})^{\frac{1}{2}}

    \infty范数
    x=max1inxi\parallel x\parallel _{\infty}=\mathop{max}\limits_{1\leq i \leq n} \mid x_{i} \mid

    p范数
    xp=(i=1nxip)1p,1p<+\parallel x\parallel _{p}=(\sum_{i=1}^{n}\mid x_{i}\mid^{p})^{\frac{1}{p}},1\leq p<+\infty
    在这里插入图片描述

    6.2 矩阵范数

    定义 6.2.2 相容范数
    在这里插入图片描述
    定理6.2.3
    在这里插入图片描述
    在这里插入图片描述
    其中ρ(A)=max1inλi\rho(A)=\mathop{max} \limits_{1 \leq i \leq n}\mid \lambda_{i} \mid


    矩阵的1-范数 (列和范数)(列模)
    矩阵的每一列上的元素绝对值先求和,再从中取个最大的(列和最大)
    A1=max1jni=1maij\parallel A\parallel _{1}=\mathop{max}\limits_{1\leq j \leq n} \sum_{i=1}^{m}\mid a_{ij} \mid

    矩阵的2-范数 (谱范数)(谱模)
    矩阵 A.T*A 的最大特征值开平方根
    A2=(λmax(AHA))12\parallel A\parallel _{2}=(\lambda_{max}(A^{H}A))^{\frac{1}{2}}

    矩阵的无穷范数 (行和范数)(行模)
    矩阵的每一行上的元素绝对值先求和,再从中取个最大的(行和最大)
    A=max1imj=1naij\parallel A\parallel _{\infty}=\mathop{max}\limits_{1\leq i \leq m} \sum_{j=1}^{n}\mid a_{ij} \mid

    矩阵的F范数
    各元素绝对值和再开根号
    AF=tr(AHA)=(i=1mj=1naij2)12\parallel A \parallel _{F}= \sqrt{tr(A^{H}A)}=(\sum_{i=1}^{m} \sum_{j=1}^{n} \mid a_{ij}\mid^{2} )^{\frac{1}{2}}

    在这里插入图片描述

    6.3 矩阵序列与矩阵级数

    矩阵序列收敛
    在这里插入图片描述
    在这里插入图片描述
    矩阵级数收敛
    在这里插入图片描述
    矩阵幂级数
    在这里插入图片描述
    ★★★下面一个重要的定理
    在这里插入图片描述
    补充

    在这里插入图片描述
    P199 T18
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    https://blog.csdn.net/u013457167/article/details/54564393
    P199 T19
    在这里插入图片描述

    七、矩阵函数

    在这里插入图片描述

    八、广义逆矩阵

    行满秩 列满秩矩阵一些性质
    在这里插入图片描述
    A是m×nm\times n行满秩矩阵,所以行秩r(A)=m,AATAA^{T}m×mm \times m矩阵,此时是满秩.列满秩情况类似可推导.

    在这里插入图片描述
    在这里插入图片描述
    课堂只讲了广义逆矩阵A+A^{+} 与线性方程组的极小最小二乘解
    在这里插入图片描述
    在这里插入图片描述
    通过以上可以得到求广义逆的两种方法:
    (1) 奇异值分解
    在这里插入图片描述
    (2) 满秩分解
    在这里插入图片描述
    A=C+B+A=C^{+}B^{+} , C+=CT(CCT)1C^{+}=C^{T}(CC^{T})^{-1} , B+=(BTB)1BTB^{+}=(B^{T}B)^{-1}B^{T}

    这个公式有对称的特征.


    在这里插入图片描述

    相容方程组
    (1) 验证 AA+b=bAA^{+}b=b 是否相等,相等则 Ax=bAx=b% 有解,则相容.
    (2) 方程组Ax=bAx=b 有解, 则称该方程组是相容方程组.
    rank(A) = rank(A b),相容
    rank(A) 不等于 rank(A b),不相容

    相容时

    • 通解 x=A+b+(IA+A)yx=A^{+}b+(I-A^{+}A)y
    • 极小范数解 x=A+bx=A^{+}b

    不相容时

    • 最小二乘通解 x=A+b+(IA+A)yx=A^{+}b+(I-A^{+}A)y
    • 极小最小二乘解 x=A+bx=A^{+}b

    在这里插入图片描述
    判断相容、最小二乘解
    在这里插入图片描述
    在这里插入图片描述

    例题
    在这里插入图片描述

    展开全文
  • 遥感常用物理名词及公式总结

    千次阅读 2016-05-19 10:35:39
    遥感常用物理名词及公式总结
    1. 辐射通量
      即辐射功率,指单位时间内通过某一面积的辐射能量。
    2. 辐射通量密度
      单位时间内通过单位面积的辐射能量。
    3. 辐照度
      是一种物理参数,是在某一指定表面上单位面积上所接受的辐射能量。单位:瓦特/平方米。若为投射到一平表面上的辐射通量密度,则称为辐照度,用符号E表示,指到达一表平面上,单位时间,单位面积上的辐射能。辐照度又称为辐射通量密度(flux density),是辐亮度对立体角的积分。对辐照度进行面积积分可得到辐射功率即辐射通量(power)。
    4. 辐射出射度
      即辐出度,若是从一表平面向外发出的辐射通量密度,则称为辐射出射度,或简称辐出度,用符号M表示,指单位时间,从单位面积上发出的辐射能。E、M的单位同为瓦特/平方米。
      数学描述:若辐射源的微小面积△A向半球空间的辐射功率为△Φ,则△Φ与△A之比的极限值定义为辐射出射度. 单位:w/㎡
      物理描述:扩展源单位面积向半球空间发射的功率(或辐射通量)。扩展源总的辐射通量,等于辐射出射度对辐射表面积的积分。
    5. 辐射强度
      在给定方向上包含该方向的立体角元内辐射源所发出的辐射通量dφ除以该立体角元dΩ,单位为W/Sr。辐射强度是描述点源特性的辐射量。
      数学描述:若点辐射源在小立体角△Ω内的辐射功率为△Φ,则△Φ与△Ω之比的极限值定义为辐射强度.
      物理描述:点辐射源在某一方向上的辐射强度,是指辐射源在包含该方向的单位立体角内所发出的辐射通量。
    6. 辐射亮度
      假定有一辐射源呈面状,向外辐射的强度随辐射方向不同,则L定义为辐射源在某一方向,单位投影表面,单位立体角内的辐射通量。即辐射源面上一点在给定方向上包含该点的面元dA的辐射强度dI除以该面元在垂直于给定方向的平面上的正投影面积,单位为W/Sr/m2。
      物理描述:辐射源在给定方向上的辐射亮度,是源在该方向上的投影面积上、单位立体角内发出的辐射功率。面积元△A向小立体角△Ω内发射的辐射功率,是二阶小量△(△Φ)=△2Φ;在θ方向看到的源面积是△A的投影面积 △Aθ=△Acosθ,因此,在θ方向上观测到的源表面上该位置的辐亮度就定义为△2Φ与△Aθ及△Ω之比的极限值。
    7. 立体角
      在圆面上取一个小面积,这个圆面的圆周和球心之间连线起来就成为立体角。立体角是球面面积比半径的平方,比如:球面对应的立体角是4π。
    8. 漫辐射源
      辐射亮度L与方向无关的辐射源。(太阳、荧光屏等)
    9. 点辐射源
      (相对概念)辐射源与观测点之间距离大于辐射源最大尺寸10倍时,可当做点源处理,否则称为扩展源(有一定面积)。

    这里写图片描述

    展开全文
  • 三角函数公式总结(四)

    千次阅读 2018-04-10 13:42:36
    三角平方差公式 辅助角公式 正弦定理  (注: 其中 R 表示三角形的外接圆半径) 余弦定理   (注:角A是边b和边c的夹角)   (注:角B是边a和边c的夹角)   (注:角C是边a和边b的夹角) 海伦-秦九韶公式 已知...

    弧度制下的角的表示: 
    sin(2kπ+α)=sinα (k∈Z)
    cos(2kπ+α)=cosα (k∈Z)
    tan(2kπ+α)=tanα (k∈Z)
    cot(2kπ+α)=cotα (k∈Z)
    sec(2kπ+α)=secα (k∈Z)
    csc(2kπ+α)=cscα (k∈Z)
    角度制下的角的表示:
    sin (α+k·360°)=sinα(k∈Z)
    cos(α+k·360°)=cosα(k∈Z)
    tan (α+k·360°)=tanα(k∈Z)
    cot(α+k·360°)=cotα (k∈Z)
    sec(α+k·360°)=secα (k∈Z)
    csc(α+k·360°)=cscα (k∈Z)
    弧度制下的角的表示:
    sin(π+α)=-sinα (k∈Z)
    cos(π+α)=-cosα(k∈Z)
    tan(π+α)=tanα(k∈Z)
    cot(π+α)=cotα(k∈Z)
    sec(π+α)=-secα(k∈Z)
    csc(π+α)=-cscα(k∈Z)
    角度制下的角的表示:
    sin(180°+α)=-sinα(k∈Z)
    cos(180°+α)=-cosα(k∈Z)
    tan(180°+α)=tanα(k∈Z)
    cot(180°+α)=cotα(k∈Z)
    sec(180°+α)=-secα(k∈Z)
    csc(180°+α)=-cscα(k∈Z)
    sin(-α)=-sinα(k∈Z)
    cos(-α)=cosα(k∈Z)
    tan(-α)=-tanα(k∈Z)
    cot(-α)=-cotα(k∈Z)
    sec(-α)=secα(k∈Z)
    csc-α)=-cscα(k∈Z)
    弧度制下的角的表示:
    sin(π-α)=sinα(k∈Z)
    cos(π-α)=-cosα(k∈Z)
    tan(π-α)=-tanα(k∈Z)
    cot(π-α)=-cotα(k∈Z)
    sec(π-α)=-secα(k∈Z)
    cot(π-α)=cscα(k∈Z)
    角度制下的角的表示:
    sin(180°-α)=sinα(k∈Z)
    cos(180°-α)=-cosα(k∈Z)
    tan(180°-α)=-tanα(k∈Z)
    cot(180°-α)=-cotα(k∈Z)
    sec(180°-α)=-secα(k∈Z)
    弧度制下的角的表示:
    sin(2π-α)=-sinα(k∈Z)
    cos(2π-α)=cosα(k∈Z)
    tan(2π-α)=-tanα(k∈Z)
    cot(2π-α)=-cotα(k∈Z)
    sec(2π-α)=secα(k∈Z)
    csc(2π-α)=-cscα(k∈Z)
    角度制下的角的表示:
    sin(360°-α)=-sinα(k∈Z)
    cos(360°-α)=cosα(k∈Z)
    tan(360°-α)=-tanα(k∈Z)
    cot(360°-α)=-cotα(k∈Z)
    sec(360°-α)=secα(k∈Z)
    csc(360°-α)=-cscα(k∈Z)
    弧度制下的角的表示:
    sin(π/2+α)=cosα(k∈Z)
    cos(π/2+α)=—sinα(k∈Z)
    tan(π/2+α)=-cotα(k∈Z)
    cot(π/2+α)=-tanα(k∈Z)
    sec(π/2+α)=-cscα(k∈Z)
    csc(π/2+α)=secα(k∈Z)
    角度制下的角的表示:
    sin(90°+α)=cosα(k∈Z)
    cos(90°+α)=-sinα(k∈Z)
    tan(90°+α)=-cotα(k∈Z)
    cot(90°+α)=-tanα(k∈Z)
    sec(90°+α)=-cscα(k∈Z)
    csc(90°+α)=secα(k∈Z)
    弧度制下的角的表示:
    sin(π/2-α)=cosα(k∈Z)
    cos(π/2-α)=sinα(k∈Z)
    tan(π/2-α)=cotα(k∈Z)
    cot(π/2-α)=tanα(k∈Z)
    sec(π/2-α)=cscα(k∈Z)
    csc(π/2-α)=secα(k∈Z)
    角度制下的角的表示:
    sin (90°-α)=cosα(k∈Z)
    cos (90°-α)=sinα(k∈Z)
    tan (90°-α)=cotα(k∈Z)
    cot (90°-α)=tanα(k∈Z)
    sec (90°-α)=cscα(k∈Z)
    csc (90°-α)=secα(k∈Z)
    弧度制下的角的表示:
    sin(3π/2+α)=-cosα(k∈Z)
    cos(3π/2+α)=sinα(k∈Z)
    tan(3π/2+α)=-cotα(k∈Z)
    cot(3π/2+α)=-tanα(k∈Z)
    sec(3π/2+α)=cscα(k∈Z)
    csc(3π/2+α)=-secα(k∈Z)
    角度制下的角的表示:
    sin(270°+α)=-cosα(k∈Z)
    cos(270°+α)=sinα(k∈Z)
    tan(270°+α)=-cotα(k∈Z)
    cot(270°+α)=-tanα(k∈Z)
    sec(270°+α)=cscα(k∈Z)
    csc(270°+α)=-secα(k∈Z)
    弧度制下的角的表示:
    sin(3π/2-α)=-cosα(k∈Z)
    cos(3π/2-α)=-sinα(k∈Z)
    tan(3π/2-α)=cotα(k∈Z)
    cot(3π/2-α)=tanα(k∈Z)
    sec(3π/2-α)=-secα(k∈Z)
    csc(3π/2-α)=-secα(k∈Z)
    角度制下的角的表示:
    sin(270°-α)=-cosα(k∈Z)
    cos(270°-α)=-sinα(k∈Z)
    tan(270°-α)=cotα(k∈Z)
    cot(270°-α)=tanα(k∈Z)
    sec(270°-α)=-cscα(k∈Z)
    csc(270°-α)=-secα(k∈Z)
    和差角公式
     
    二倍角公式
     

    三倍角公式

     

     
    四倍角公式
     
     五倍角公式
     
     六倍角公式
     
    七倍角公式
     
    八倍角公式
    sin8A=-8*(cosA*sinA*(2*sinA^2-1)*(-8*sinA^2+8*sinA^4+1))
    cos8A=1+(160*cosA^4-256*cosA^6+128*cosA^8-32*cosA^2)
    tan8A=-8*tanA*(-1+7*tanA^2-7*tanA^4+tanA^6)/(1-28*tanA^2+70*tanA^4-28*tanA^6+tanA^8)
    九倍角公式
    sin9A=(sinA*(-3+4*sinA^2)*(64*sinA^6-96*sinA^4+36*sinA^2-3))
    cos9A=(cosA*(-3+4*cosA^2)*(64*cosA^6-96*cosA^4+36*cosA^2-3))
    tan9A=tanA*(9-84*tanA^2+126*tanA^4-36*tanA^6+tanA^8)/(1-36*tanA^2+126*tanA^4-84*tanA^6+9*tanA^8)
    十倍角公式
    sin10A=2*(cosA*sinA*(4*sinA^2+2*sinA-1)*(4*sinA^2-2*sinA-1)*(-20*sinA^2+5+16*sinA^4))
    cos10A=((-1+2*cosA^2)*(256*cosA^8-512*cosA^6+304*cosA^4-48*cosA^2+1))
    tan10A=-2*tanA*(5-60*tanA^2+126*tanA^4-60*tanA^6+5*tanA^8)/(-1+45*tanA^2-210*tanA^4+210*tanA^6-45*tanA^8+tanA^10)
    万能公式
     

     
     
    半角公式
     

     积化和差
     
    和差化积
     
     
    三角平方差公式
    辅助角公式

    正弦定理


      (注: 其中 R 表示三角形的外接圆半径)

    余弦定理


     
    (注:角A是边b和边c的夹角)
     
    (注:角B是边a和边c的夹角)
     
    (注:角C是边a和边b的夹角)

    海伦-秦九韶公式
    已知三角形三边a,b,c,半周长p,则S= √[p(p - a)(p - b)(p - c)]
    (p= (a+b+c)/2)
    和:(a+b+c)*(a+b-c)*1/4
    已知三角形两边a,b,这两边夹角C,则S=absinC/2
    设三角形三边分别为a、b、c,内切圆半径为r
    则三角形面积=(a+b+c)r/2
    设三角形三边分别为a、b、c,外接圆半径为r
    则三角形面积=abc/4r
    已知三角形三边a、b、c,则S= √{1/4[c^2a^2-((c^2+a^2-b^2)/2)^2]} (“三斜求积” 南宋秦九韶) 
    秦九韶三角形中线面积公式
    S=√[(Ma+Mb+Mc)*(Mb+Mc-Ma)*(Mc+Ma-Mb)*(Ma+Mb-Mc)]/3
    其中Ma,Mb,Mc为三角形的中线长。
    反三角函数
    arcsin(-x)=-arcsinx
    arccos(-x)=π-arccosx
    arctan(-x)=-arctanx
    arccot(-x)=π-arccotx
    arc sin x+arc cos x=π/2
    arc tan x+arc cot x=π/2

    后续解释三角函数的物理意义。。。。。。

    展开全文
  • markdown中数学符号和公式总结

    千次阅读 2019-04-02 19:58:20
    1、指数和下标可以用^和_后加相应字符来实现。 2、平方根(square root)的输入命令为:\sqrt,n 次方根相应地为: \sqrt[n]。方根符号的大小由LATEX自动加以调整。也可用\surd 仅给出符号。...
  • Markdown公式编辑总结

    千次阅读 多人点赞 2019-07-17 08:28:31
    0. 写在前面的话   若干年前就开通了CSDN,但是那时候还是通过富文本编辑器来写博客。...使用Markdown编辑器真的是很方便,能够把文章的逻辑关系清晰的表达出来,也能够方便的书写各种数学公式。前者比...
  • ** 四种方法推导平方公式** 序言: 连续自然数的平方和, Sn=∑k=0nk2=12+22+...+n2S_n = \sum_{k=0}^{n}{k^2} = 1^2 + 2^2 + ... + n^2Sn​=∑k=0n​k2=12+22+...+n2 是我们中学时期便接触到的一个重要公式,当时...
  • 专升本高数——常用公式总结大全【补充扩展】

    千次阅读 多人点赞 2020-02-22 11:17:27
    二:三角函数公式大全 参考地址: https://wenku.baidu.com/view/12a44e04492fb4daa58da0116c175f0e7dd11977 https://wenku.baidu.com/view/dd5898f7ba0d4a7302763ab2.html ...
  • 平均速率与方均根速率 注意:压强公式里面的是方均根速率的平方,而不是平均平方,因为平均速率为0 理想气体状态方程变形 绝热自由膨胀和绝热准静态膨胀 内能的改变量 注意 已知气体的种类,绝热系数应该带入最后的...
  • RM中总结的颜色矩阵公式 基本声明 声明一下,本文里面假定颜色矩阵生效前的任意一个像素的RGBA值分别为,R,G,B,A.生效后分别为,r,g,b,a. 颜色矩阵对背景色无效就是solidcolor,必须对图片使用,另外说一下的是...
  • 理解 注:其实就是复合随机变量的期望,对于离散型 ,其主要是每个值增加了多少倍/减少了多少倍,但是概率不变,所以公式见上面;对于 连续性随机变量,其实是一样的,每个点的概率没有变,所以就是变量本身的值发货...
  • 不定积分计算(平方差类型)

    千次阅读 2019-08-11 21:22:52
    不定积分计算(平方差类型)
  • 奇妙的数学 · 完全平方数~总结

    千次阅读 2017-05-16 10:27:25
    总结。就前面wiki的质量高一些。
  • 输出层误差计算公式 III . 隐藏层层误差计算公式 IV . 使用误差更新 连接权值 V . 使用误差更新 单元偏置 VI . 反向传播 过程 VII . 损失函数 简介 VIII . 损失函数 IX . 损失函数 举例 X . 损失函数 优化过程
  • 史上最全Markdown公式、符号总结!!!

    千次阅读 多人点赞 2020-03-15 21:25:58
    史上最全Markdown公式、符号总结常见公式1、向量公式2、分段函数3、多行表达公式常见公式环境公式编辑的编号设置矩阵1、不带括号的矩阵2、带小括号的矩阵3、带中括号的矩阵4、带大括号的矩阵5、带省略号的矩阵6、带...
  • 1、latex特殊符号汇集 详见:... 2、latex公式编写 latex公式的编写比较复杂,从公式的大小上看:涉及到单个字符公式、一行公式的编写。深入到一行公式内部:涉及到...
  • 单纯介绍概念不易理解,所以应从实际应用出发介绍其区别。 四者的研究对象和研究目的不同。...定义:标准是观测值与其平均数偏差的平方和的平方根,即方差的算术平方根。 公式: 公式意义:所有数减去其...
  • 一、微分算子 (一)哈密顿算子 在直角坐标系中,哈密顿算子定义为:
  • 方差、标准和均方根误差的区别总结

    万次阅读 多人点赞 2017-09-05 20:29:44
    统计中的方差(样本方差)是各个数据分别与其平均数之平方的和的平均数。在许多实际问题中,研究方差即偏离程度有着重要意义。  公式表示:对于一组随机变量或者统计数据,其期望值我们由E(X)表示,即随机变量
  • 是向量每个元素分别计算平方,后面所有的计算公式都是对向量的每个分量进行。接下来计算如下RMS量: 计算参数的更新值: RMS 的计算公式和这个类似。这个更新值同样通过梯度来构造,只不过学习率是...
  • 做几何题的时候突然发现公式都忘记了,于是脑补了一下。
  • Latex之数学公式基本使用格式

    万次阅读 2018-05-16 19:55:11
    Latex之数学公式基本使用格式 一. 数学公式格式背景介绍 TEX有两种数学公式,一种是夹杂在行文段落中的公式,一般称为行内(inline) 数学公式,或正文(in-tex:t)数学公式;另一种就是像单独占据整行居中展示出来的...
  • 平方损失函数(最小二乘法): 回归问题中常用的损失函数,在线性回归中,可以通过极大似然估计(MLE)推导。计算的是预测值与真实值之间距离的平方和。实际更常用的是均方误差(Mean Squared Error-MSE): 2. ...
  • 作者:董文辉本文长度为4500字,建议阅读10+分钟本文为你总结常见损失函数和评价指标。目录一、损失函数1.1 回归问题1.2 分类问题二、评价指标2.1 回归问题2.2 分类问题参考资...
  • 一、百度百科上方是这样定义的:  (variance)是在概率论和统计方差衡量随机变量或一组数据时离散程度的度量...统计中的方差(样本方差)是各个数据分别与其平均数之平方的和的平均数。在许多实际问题中,
  • 而在实际应用中,通常会使用均方差(MSE)作为一项衡量指标,公式如下: 上面提到了线性回归,这里额外补充一句,我们通常说的线性有两种情况,一种是因变量y是自变量x的线性函数,一种是因变量y是参数α的...
  • 泰勒公式的展开细节解析

    万次阅读 多人点赞 2017-08-05 08:58:22
    上周写完了《《三体》读后思考-泰勒展开/维度打击/黑暗森林》后收到一些邮件,进一步思考了关于泰勒展开的意义。也许我掌握的那些网络技术比如Linux Netfilter,NAT之类,太过底层太过小众,所以大家几乎都是没有感...
  • 分法~超详细(公式+原理+例题)

    千次阅读 多人点赞 2020-12-23 21:58:26
    分法 分法应用在处理区间问题时比较多。一个数列要在很多不确定的区间内加上相同的一个数,如果直接在原数列上操作是非常复杂且耗时的,分法就是先将数列拆分,构造一个拆分的新数列,在这个新数列上进行我们...
  • 方差、标准、均方误差的总结

    千次阅读 2018-01-24 22:07:06
    统计中的方差(样本方差)是每个样本值与全体样本值的平均数之平方值的平均数。在许多实际问题中,研究方差即偏离程度有着重要意义。  方差是衡量源数据和期望值相差的度量值。  假设有一组离散的数据xn=[x1

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 21,768
精华内容 8,707
关键字:

平方差公式总结