精华内容
下载资源
问答
  • 矢量的一些基本知识,对矢量学习有用的。其中是一些矢量的合成分解以及向量的数乘叉乘的基本知识
  • 矩阵:描述运动,本质是在一组基描述下的向量(对象)线性变换{e1,e2,...,en}\{e_1,e_2,...,e_n\}{e1​,e2​,...,en​} 线性无关基:完备性(数量足够)+线性独立(不能相互表示),可表示任意一个向量 正交归一基:基...

    概念

    本文是在读了黎文科老师神奇的矩阵后,做的一些笔记以及对分解和合成的一点思考,如有问题,欢迎交流。
    这里附上一些线性代数中的数学概念。

    • 矩阵:描述运动,本质是在一组基描述下的向量(对象)的线性变换{e1,e2,...,en}\{e_1,e_2,...,e_n\}
    • 线性无关基:完备性(数量足够)+线性独立(不能相互表示),可表示任意一个向量
    • 正交归一基:基之间相互正交,模为1
    • 特征向量:对于一个矩阵(线性变换),特征向量(对象)变换之后方向不变
      Ax=λxA\pmb{x}=\lambda \pmb{x}
    • 向量:可以理解为一组基下的坐标(c1,c2,...,cn)(c_1,c_2,...,c_n)
      φ=c1e1+c2e2+...+cnen\pmb{\varphi}=c_1\pmb{e_1}+c_2\pmb{e_2}+...+c_n\pmb{e_n}

    特征向量与特征值

    特征向量的引入是为了选取一组很好的基。

    1. 分解向量(本质是以特征向量为基,进行坐标变换)
       我们知道,对于一个线性变换,只要选定一组基,就可以用一个矩阵T1T_1来描述这个线性变换。换一组基,就得到另一个不同的矩阵T2T_2。如果我们选取特征向量做基的话,空间任意一个向量可用特征向量来表示:
      φ=c1p1+c2p2+...+cnpn\pmb{\varphi}=c_1\pmb{p_1}+c_2\pmb{p_2}+...+c_n\pmb{p_n}
       由于线性变换不改变特征向量的方向,故在对向量做线性变换时,形式简单:
      Aφ=A(c1p1+c2p2+...+cnpn)=c1λ1p1+c2λ2p2+...+cnλnpnA\pmb{\varphi}=A(c_1\pmb{p_1}+c_2\pmb{p_2}+...+c_n\pmb{p_n})=c_1\lambda_1\pmb{p_1}+c_2\lambda_2\pmb{p_2}+...+c_n\lambda_n\pmb{p_n}
       综上,我们可以看出,如果一个矩阵(线性变换)存在n个特征向量,那么将它们作为正交基对向量进行分解,比直接进行线性变换大大简化地了运算。
    2. 分解矩阵
       在对矩阵进行对角化后,可以写成如下的形式:
      A=P[λ1000λ2000λn]PT,P={p1,p2,...,pn}A=P \left[ \begin{matrix} \lambda_1 & 0 & \cdots & 0 \\ 0 &\lambda_2 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & \lambda_n \\ \end{matrix} \right]P^{T},P=\{\pmb{p_1},\pmb{p_2},...,\pmb{p_n}\}
       进一步展开:
      A=λ1P1+...+λnPn,Pn=pnpnTA= \lambda_1 P_1+...+\lambda_nP_n,P_n=\pmb{p_n}\pmb{p_n}^{T}
       这里的目的是对线性变换进行展开,叫做谱分解,主成分分析里有这东西。

    从特征向量看信号与系统

    众所周知,信号与系统讨论的系统是线性时不变系统,而线性时不变系统的特征向量就是e指数函数,所以我们选取特征向量(e指数函数)为基,对时域信号进行分解(即获取它在特征向量基底下的坐标),这就是傅里叶分析。线性时不变系统的特征向量就是e指数函数也是我们采用傅里叶分析的原因,所谓的频域空间就是e指数函数空间。
     下面我们证明一下线性时不变系统的特征向量就是e指数函数,TT代表系统的作用:
    T[ejωt]=g(t)T[e^{j\omega t}]=g(t)g(t)=ejωτh(tτ)dτg(t)=\int e^{j\omega \tau}h(t-\tau){\rm d\tau}g(t)=ejωtejωxh(x)dxg(t)=e^{j\omega t}\int e^{-j\omega x}h(x){\rm dx}g(t)=H(ω)ejωtg(t)=H(\omega)e^{j\omega t}T[ejωt]=H(ω)ejωtT[e^{j\omega t}]=H(\omega)e^{j\omega t}
     可以发现,e指数函数经过线性时不变系统系统的作用后方向不变,即为系统的特征向量。
     回到上面的分解向量,两者的本质思想是一样的,唯一的差别在于维度上。所以说,信号中线性-分解-合成时选取傅里叶变换和拉普拉斯变换是有道理的。

    拓展

    1. 我们可以发现,线性微分方程的特征向量也是e指数函数,这也是我们取其为基,表示解的原因。
    2. 用特征函数解的方程是最简洁的,否则,如果用级数的方式解方程,会发现方程的解有无穷多项。在解贝塞尔方程时,我们没有找到特征函数,于是退而求其次才选择级数求解,至少级数具有完备性。
    3. 数学中的分解方法有很多,各类的积分变换都对应着一个函数空间,具体要看我们想选取哪一组基去刻画对象,然后得到对象在目标基底下的坐标。
      在这里插入图片描述

    对于泰勒展开,我们选取了多项式为基,由多项式构成的空间就叫多项式空间。对傅里叶变换,我们选取了三角函数为基,由三角函数构成的空间就叫做频率空间。

    Reference:
    1.神奇的矩阵第二季.黎文科

    展开全文
  • 向量

    2020-09-18 17:09:35
    向量的起点终点分别标上字母、,则向量可以记作,头上的箭头方向表示由指向: 1.2 相等的向量 物理中规定,只要长度相同、方向一致就是相等的向量。比如下面表示小车速度的向量,虽然起

    向量,这是一个古老的概念。亚里士多德就知道力可以分解为向量,伽利略更是清晰的阐述了向量如何合成。下面来看看在物理中是如何定义向量的。


    1 物理中的向量

    1.1 有向线段

    高中物理就学过,是有长度、有方向的有向线段,可以用来表示力、速度或加速度等有大小、有方向的物理量。比如下面篮球的瞬时速度可以用向量来表示:

    将向量的起点与终点分别标上字母,则向量可以记作,头上的箭头方向表示由指向

    1.2 相等的向量

    物理中规定,只要长度相同、方向一致就是相等的向量。比如下面表示小车速度的向量,虽然起点和终点不一样,但是长度相同、方向一致,就认为两者速度相等:

    也就是说,起点和终点没那么重要,所以向量往往也用一个加粗的字母来表示(一般在印刷的书籍上用加粗的字母,手写的时候用箭头,本课程一般用加粗的字母表示向量):                                                                         

    只要长度相同、方向一致,向量就相等,否则不等:


    2 数学中的向量

    相对物理而言,数学的定义会更严格。下面让我们从物理概念出发,来推导数学中向量的定义。

    2.1 坐标与向量

    在物理中,向量有一个起点和一个终点。比如向量:

    在数学中总是把起点放在原点,终点放在,用箭头连起来就是该向量:

    上面这幅图是不是有点像高中学习过的复数?刚才图中的点也可以表示一个复数:

     

    在历史上,复数是作为实数的扩展出现的。不过由于上面提到的相似性,一开始,数学家希望也可以用复数来表示物理中的向量。也就是说,希望复数可以满足以下两个要求:

    • 兼容实数,扩展数系

    • 在二维、三维空间中符合物理中的运算法则。

    奈何“不如意事,十有八九”,数学家最后自己证明了这两个目标不可能同时达到(数学家打自己脸,从来不客气)。最终,复数和向量分道扬镳,在数学中有了各自的地位:

    在数学中,始终把向量的起点放在原点,那么我们就可以用终点的坐标来表示向量,即上面的向量可以表示为:

    这样,直角坐标系中的某个坐标和某个向量是一一对应的:

    所以,既可以用箭头来表示一个向量,也可以用某个点来表示一个向量,本课程中会混用这两者:

    2.2 向量的数学定义

    往更高维度走也是一样的,刚刚动画中的篮球,既可以看成是三维空间中的一个位置,也可以看成是一个向量:

    而超过三维就无几何意义了。比如,想描述一个游戏人物的信息:

    这个时候,就需要向量的形式化定义了,如下:

    个有序的数所组成的数组称为n维向量,这个数称为该向量的个分量,第个数称为第个分量。维向量可写成一行,也可写成一列。分别称为行向量和列向量:

    • 维列向量:

    • 维行向量:

    也称为该向量的维数。

    那么之前的人物信息就可以表示为列向量或者行向量:

    上面两种写法都代表同一个向量,这两种写法到后面矩阵出现了才有区别


    3 相等的向量

    数学中的向量起点都在原点,所以比较相等只需要看终点是否相同。从代数上讲,只需要看向量的各个分量是否相等:

    不区分列向量和行向量的话,下面两个向量也是相等的:


    4 大小和方向

    4.1 长度和角度

    物理最在意的向量的大小、方向,在数学中可以用长度和角度来表示:

            (1)从数学的定义出发,向量只是有序数对,长度和方向并非必须。需要增加一个“点积”运算,才能给向量附加上长度以及方向,本课程后面会详细解释这一点,这里不再讨论两者如何计算。

            (2)向量的长度用来表示,第一,左右各两根竖线,这样可以和实数的绝对值相区别;第二,学到矩阵的时候,会知道|A|表示的是矩阵的行列式,这是一个可正可负的实数,而长度为非负数,所以用来和行列式进行区别。

            (3)用夹角表示方向是很常见的,比如在下面这个极简的地图中:

    我们会说猴岛在中心岛的东偏北的方向,这就是通过夹角来表示方向。

    4.2 其他定义

    根据向量的长度以及角度不同,还有如下定义:

    • 平行:方向相同或相反的两个向量称为平行,或者说两向量的夹角为

    • 正交:互相垂直的两个向量称为正交,或者说两向量的夹角为

    • 单位向量:长度为1的向量称为单位向量


    5 零向量

    起点与终点为同一个点的向量为零向量,记做。从几何上理解,就是平面、空间中的原点:

     

    这是一个很特殊的向量,下面不作证明的给出如下性质(后面学习了长度和方向的计算后,再来证明):

    • 长度:零向量的长度为0

    • 方向:零向量指向任意方向

    • 夹角:因为零向量指向任意方向,所以它与某一向量的夹角为任意角度

    • 平行与正交:因为夹角任意,所以零向量与任意向量平行、正交

    展开全文
  •   ➤01 背景 在 2020年人工神经网络课程第一次作业第八题 中需要对 Lena ...将512×512Lena灰度图片(0 ~ 255)分割成边长8 ~ 16图像块,并通过行扫描形行向量; 对图像进行归一化,形成数据在 -0.5 ~ 0.5之

    在这里插入图片描述

     

    01 背景


    2020年人工神经网络课程第一次作业第八题 中需要对 Lena 图像使用AutoEncode网络进行压缩。将Lena(灰度图像)拆解成不同尺寸的大小形成训练压缩样本过程;或者从训练结果重新组合成Lena灰度图像是实验的基础。

    ▲ Lena灰度图像

    ▲ Lena灰度图像

    下面给出相关操作的Python程序和相关的结果。

    主要操作包括:

    • 将512×512的Lena灰度图片(0 ~ 255)分割成边长8 ~ 16的图像块,并通过行扫描形行向量;
    • 对图像进行归一化,形成数据在 -0.5 ~ 0.5之间的数据;
    • 将训练结果恢复到0 ~ 255并组合成灰度图片,存盘,或者显示。

     

    02 图像分割


    Lena下载Lean灰度(512×512)的图片数据,存储在本地目录下:lean_gray.bmp。文件格式为BMP。

    1.读取数据分割

    (1) 输入参数

    • blocksize : 图像块的大小:8 ~ 32
    • image_file :图像文件

    (2) 输出参数

    • outdata: 2D-array。每一行是图像block所形成的一位数据;总行数为block数量;
      数据格式:float: -0.5 ~ 0.5
    def lena2block(blocksize,image_file):
        img = Image.open(image_file).convert('RGB')
    
        imgdata = array(img)[:,:,0].astype(float32)
        imgheight = imgdata.shape[0]
        imgwidth = imgdata.shape[1]
        imgdata = (imgdata - 128) / 256
    
        printf(imgdata.shape)
    
        outdata = []
        for i in range(0, imgheight, blocksize):
            for j in range(0, imgwidth, blocksize):
                blockdata = imgdata[i:i+blocksize, j:j+blocksize].reshape(1, -1)
    
                if len(outdata) == 0: outdata = blockdata
                else: outdata = vstack((outdata, blockdata))
    
        return outdata
    

    2.测试上述模块

    下面测试上面的lena2block程序,并将分割成的小图像块重新进行显示的结果。

    ▲ 分割成32×32小块的Lena灰度图片

    ▲ 分割成32×32小块的Lena灰度图片

    tsprefreshimagebuffer(show_id)
    
    SHOW_LINES      = 16
    SHOW_COLS       = 16
    TEMP_FILE       = r'd:\temp\1.bmp'
    
    for i in range(SHOW_LINES):
        for j in range(SHOW_COLS):
            blockid = i * 16 + j
            newimage = Image.fromarray((outdata[blockid].reshape(IMAGE_BLOCK_SIZE, IMAGE_BLOCK_SIZE) * 256 + 128).astype(uint8))
            newimage.save(TEMP_FILE)
            x = j * (IMAGE_BLOCK_SIZE + 2)
            y = i * (IMAGE_BLOCK_SIZE + 2)
    
            tspshowimage(show_id, x, y, x + IMAGE_BLOCK_SIZE, y + IMAGE_BLOCK_SIZE, TEMP_FILE)
    
    tsprv()
    

     

    03 图像合成


    将前面分割的图像重新整合成lena图片图片。

    1.图片合成代码

    def block2lena(blockdata):
        blocknum = blockdata.shape[0]
        blocklen = blockdata.shape[1]
        block_size = int(sqrt(blocklen))
        image_block_size = int(sqrt(blocknum))
    
        block_line = []
        for i in range(image_block_size):
            block_row = hstack([b.reshape(block_size, block_size) \
                                for b in blockdata[i*image_block_size:(i+1)*image_block_size]])
            block_line.append(block_row)
    
        imagedata = vstack(block_line)
        imagedata = (imagedata * 256 + 128)
        imagedata[imagedata < 0] = 0
        imagedata[imagedata > 255] = 255
        return imagedata.astype(uint8)
    

    2.测试

    newdata = block2lena(outdata)
    printf(newdata.shape)
    newimage = Image.fromarray(newdata)
    newimage.show()
    

    为了显示对于block处理后的效果,下面对于每一块都将前面一半填充0,然后再合成。

    for b in outdata:
        b[0:len(b)//2] = 0
    

    因此显示的结果如下。

    ▲ 简单填充后的合成图像

    ▲ 简单填充后的合成图像

    从上面结果来看,对于每一小块的处理最终体现在合成后的图片中。这也说明整个的图片的分割与合成程序功能正常。这位之后对2020年人工神经网络课程第一次作业第八题的效果进行评估提供了可视化的子函数。

     

    ※ 结论


    对于Lena灰度图像,通过两个子函数可以完成对其切分成小块,然后再合成,这由于2020年人工神经网络课程第一次作业第八题中的结果进行显示。便于评估图像处理结果。

     

    □ 实验Python程序

    #!/usr/local/bin/python
    # -*- coding: gbk -*-
    #============================================================
    # SUBIMAGE.PY                  -- by Dr. ZhuoQing 2020-11-23
    #
    # Note:
    #============================================================
    
    from headm import *
    from PIL                    import Image
    
    #------------------------------------------------------------
    lena_gray = r'D:\Temp\lena_gray.bmp'
    show_id = 6
    
    def lena2block(blocksize,image_file):
        img = Image.open(image_file).convert('RGB')
    
        imgdata = array(img)[:,:,0].astype(float32)
        imgheight = imgdata.shape[0]
        imgwidth = imgdata.shape[1]
        imgdata = (imgdata - 128) / 256
    
        printf(imgdata.shape)
    
        outdata = []
        for i in range(0, imgheight, blocksize):
            for j in range(0, imgwidth, blocksize):
                blockdata = imgdata[i:i+blocksize, j:j+blocksize].reshape(1, -1)
    
                if len(outdata) == 0: outdata = blockdata
                else: outdata = vstack((outdata, blockdata))
    
        return outdata
    
    #------------------------------------------------------------
    def block2lena(blockdata):
        blocknum = blockdata.shape[0]
        blocklen = blockdata.shape[1]
        block_size = int(sqrt(blocklen))
        image_block_size = int(sqrt(blocknum))
    
        block_line = []
        for i in range(image_block_size):
            block_row = hstack([b.reshape(block_size, block_size) \
                                for b in blockdata[i*image_block_size:(i+1)*image_block_size]])
            block_line.append(block_row)
    
        imagedata = vstack(block_line)
        imagedata = (imagedata * 256 + 128)
        imagedata[imagedata < 0] = 0
        imagedata[imagedata > 255] = 255
        return imagedata.astype(uint8)
    
    #------------------------------------------------------------
    IMAGE_BLOCK_SIZE        = 32
    outdata = lena2block(IMAGE_BLOCK_SIZE, lena_gray)
    printf(outdata.shape)
    
    #------------------------------------------------------------
    tsprefreshimagebuffer(show_id)
    
    SHOW_LINES      = 16
    SHOW_COLS       = 16
    TEMP_FILE       = r'd:\temp\1.bmp'
    
    for i in range(SHOW_LINES):
        for j in range(SHOW_COLS):
            blockid = i * 16 + j
            newimage = Image.fromarray((outdata[blockid].reshape(IMAGE_BLOCK_SIZE, IMAGE_BLOCK_SIZE) * 256 + 128).astype(uint8))
            newimage.save(TEMP_FILE)
            x = j * (IMAGE_BLOCK_SIZE + 2)
            y = i * (IMAGE_BLOCK_SIZE + 2)
    
            tspshowimage(show_id, x, y, x + IMAGE_BLOCK_SIZE, y + IMAGE_BLOCK_SIZE, TEMP_FILE)
    
    tsprv()
    
    #------------------------------------------------------------
    
    for b in outdata:
        b[0:len(b)//2] = 0
    
    newdata = block2lena(outdata)
    printf(newdata.shape)
    newimage = Image.fromarray(newdata)
    newimage.show()
    
    #------------------------------------------------------------
    #        END OF FILE : SUBIMAGE.PY
    #============================================================
    
    展开全文
  • 哥氏方程具有如下形式: 其中,是向量 在惯性坐标系下变化速度,是向量 在旋转...为了得到哥氏方程一致推导,我们将 分解成由旋转导致 由空间运动导致 (事实上,我们可以将 分解成纯旋转和沿 方向...

    哥氏方程具有如下形式:

                                       

    其中, 是向量  在惯性坐标系  下变化速度, 是向量  在旋转坐标系  下变化速度, 是旋转坐标系  相对惯性坐标系  的旋转角速度。

     

    1、哥氏方程的一般意义

    在任意一个坐标系中(惯性系或非惯性系均可),向量  在  时间后有如下变化:

    向量  与起点位置无关。为了得到与哥氏方程一致的推导,我们将  分解成由旋转导致的  与由空间运动导致的  (事实上,我们可以将  分解成纯旋转和沿  方向的长度变化,但此时旋转角速度对应为旋转坐标系角速度与  在旋转系中的角速度之和)。我们的目标是推导  。因为旋转角  很小,可认为   垂直,所以:

                                     

    即:

                                                       

    只要满足在同一个坐标系下,上式对任意向量(可以是位移,速度等)均成立。

     

    2、对应到哥氏方程

    我们取惯性系  ,记上述方程为:

                                                     

                                           (这里有下标和无下标其实是一样的)

    如果我们把  固连于某一旋转系统  之上, 相对  的旋转角速度  旋转将带动  旋转相同的角度,即  。  对应  相对  的变化,记作 (把  看作静止时, 的变化)。

    此时:

                                                                

                                                                

    即:

                                                     

    上式仍然对任意向量(可以是位移,速度等)成立。

     

    3、加速度合成定理

     为相对惯性系的位移,则不妨将:

                                                    

    记作:

                                                          

    上式即速度合成定理, 为绝对速度, 为相对速度, 为牵连速度(注意:这里下标  表示相对速度)。

    再取   ,则:

              

                         

                         

    记作:

                                                  

    此即加速度合成定理,其中:

     

     

     

     

     

     

    展开全文
  • 之前在介绍矩阵特征值特征向量的时候,也是以运动作为类比。 一、通俗理解奇异值 1、翻绳 对于翻绳的这个花型而言,是由四只手完成的: 我们可以认为这个花型是由两个方向的力合成的: 容易想象,如果...
  • 导读 如果你有幸拿到这本书,恭喜你!你将获得最自然和最本质的解读线性代数的方式。 每个学习过线性代数的人,心中一定...线性代数以向量和矩阵为工具,解决线性空间中向量的合成与分解问题。 矩阵是什么?可以多...
  • 负矩阵分解算法 Fisher 线性判别方法的合成孔径雷达图像目标识别的方法 ,通过基于基向量非负加权组合的形式 构建 SAR 目标图像 ,能充分利用目标的局部空间结构信息提取目标特征信息实现目标识别. 首先将水平集分割...
  • 随后,为了使特征表示更加强大,将其梯度通过奇异值分解(SVD)和元素逐项归一化矩阵归一化(平方根)引入了所提出网络中。 最后,对TerraSAR-X图像上SAR场景分类数据集进行实验表明,所提出网络比最新...
  • 主成分析( Principal Component Analysis ,PCA )是最常用 一种降维方法,通常用于高数据集探索可视化还以作据压缩和预处理等。 PCA 可以把具有相关性高维变量合成为 线性无关低维变量,称主成分。能够...
  • ()欧拉角,即 pithc(绕X轴),yaw(Y),roll(Z),实质上,这是把绕任意转的旋转分解为绕X,Y,Z三个轴旋转的合成.  而恰恰,绕一个坐标轴转的计算比较简单.(很多书上都有讲,也易理解) (3四元数 ()轴角法.即通过所讲的:绕A...
  • 依据图像背景亮度、对比度相似和无关分量结构化参数要求,基于空间向量分解合成原理,采用了空间向量均值和范数等参量方法,提出了一种三个误差分量图像信号设计方法,以及对应设计实例。实验结果表明图像...
  • 信号频谱(二)

    2020-07-01 15:28:30
    傅里叶级数展开本质就是用一系列角速度为ω=kω0旋转向量e^jkw0t来合成周期信号。旋转向量在t=0时刻对应的向量为傅里叶系数Ck 那么如何求傅里叶系数呢? 以方波信号信号为例 占空比为1/2 w0=2pi/T T=2τ 所以...
  • 叉乘分配律几何证明

    万次阅读 2017-11-24 09:26:46
    力是可以合成与分解的,所以叉乘当然支持分配律。 下面使用几何方式证明:(a⃗ +b⃗ )×c⃗ =a⃗ ×c⃗ +b⃗ ×c⃗  (\vec{a}+\vec{b}) \times \vec{c} = \vec{a} \times \vec{c} + \vec{b} \times \vec{c...
  • 坐标系变换

    2019-08-10 21:19:41
    向量合成的角度来说,就是这个向量由两个正交的向量相加而来,其中一个向量为a*x_hat,另外一个向量为b*y_hat,其中x_haty_hat是沿x轴正方向y轴正方向单位向量。多维向量同理。 2、...
  • 先用NSCT对合成孔径雷达(SAR)图像进行多尺度、多方向分解; 再对得到子带图像使用GLCM提取灰度共生量; 然后对提取灰度共生量进行相关性分析, 去除冗余特征量, 并将其灰度特征构成多特征矢量; 最后, 充分利用...
  • 7.2 顶点动画与合成 7.3 骨架动画 7.4 低层次动画管理 7.4.1 行进路径规划 7.4.2 骨架动画和面向对象动画控制 7.4.3 对障碍物躲避 7.4.4 路径规划总结 附录7.1 用四元数描绘旋转 附录7.2 四元数实现 附录7.3...
  • 7.2 顶点动画与合成 7.3 骨架动画 7.4 低层次动画管理 7.4.1 行进路径规划 7.4.2 骨架动画和面向对象动画控制 7.4.3 对障碍物躲避 7.4.4 路径规划总结 附录7.1 用四元数描绘旋转 附录7.2 四元数实现 附录7.3...
  • 常用fortran统计程序

    2010-03-29 17:53:04
     求f(n)在指数x(n)为高指数年(x(n)>coefh的年)的平均值fh、低指数年(x(n)的年)的平均值fl、高指数年气候平均的合成差dh、低指数年气候平均的合成差dl、以及高低指数年的合成差dhl和差的显著性tn(5,3)。...
  • 傅里叶级数

    2019-07-23 20:13:28
    从线性代数的角度来看,线性空间中的任意...因为单位坐标基是一组标准正交基,所以你只要计算被表示向量向量的内积,就能得到相应的系数,想象下力的分解与合成。否则常规做法是求解线性方程组。 现在就可以从...
  • canvas模拟重力效果

    2019-09-28 20:50:35
    要学会应用分解合成,将速度或加速度分解到x、y轴上,然后将每条轴上加速度或速度相加,然后再分别物体位置坐标相加。 附录: 总要公式: (1)将角速度分解为x、y轴上速度向量 vx = speed * Math....
  • 4·2 向量的相等、和、差及向量实数的积 4·3 向量的性质 4·4 拉米定理 4·5 向量的分量 4·6 向量的内积 4·7 空间向量 4·8 向量方程 5.复数向量 5·1 复数向量 5·2 向量的旋转 第七章 图形方程 1.点...
  • 4·2 向量的相等、和、差及向量实数的积 4·3 向量的性质 4·4 拉米定理 4·5 向量的分量 4·6 向量的内积 4·7 空间向量 4·8 向量方程 5.复数向量 5·1 复数向量 5·2 向量的旋转 第七章 图形方程 1.点...
  • python_sound_open 《语音信号处理试验教程》(梁...Python语音基础操作--12.3基于支持向量机SVM语音情感识别 Python语音基础操作--12.4基于LDA,PCA语音情感识别 Ref 《语音信号处理试验教程》(梁瑞宇等)
  • ex030400 用矩阵-向量乘法求有限长序列DTFT ex030500 x(n)=(exp(jπ/3))n 频谱及其周期性 ex030600 x(n)=2n 离散付利叶变换及其共轭对称性 ex030700 DFDT 线性性(3.5)验证 ex030800 DFDT 时域移位性(3.6)...
  • 应用案例 - 用户身份验证 / 英制单位公制单位互换 / 掷骰子决定做什么 / 百分制成绩转等级制 / 分段函数求值 / 输入三条边长度如果能构成三角形就计算周长和面积 Day04 - 循环结构 循环结构应用场景 - ...

空空如也

空空如也

1 2
收藏数 30
精华内容 12
关键字:

向量的合成与分解