精华内容
下载资源
问答
  • 向量范数及正则化方法简介

    千次阅读 2019-01-16 20:21:19
    在G.H.Golub和C.F.Van_Loan所著的《矩阵计算》一书中,对向量范数的定义如下: 正则化 在机器学习中,正则化主要用于解决在训练模型的过程中出现的过拟合问题。常见的正则化方法有两种,即L1正则化和L2正则化。...

    向量范数

    在G.H.Golub和C.F.Van_Loan所著的《矩阵计算》一书中,对向量范数的定义如下:

    正则化

    在机器学习中,正则化主要用于解决在训练模型的过程中出现的过拟合问题。常见的正则化方法有两种,即L1正则化和L2正则化。其中L1正则化除了可以抑制过拟合现象,还兼有特征选择和增加模型可解释性的作用;L2正则化除了可以抑制过拟合现象,在某些情况下还同时有助于后续的优化计算。L1正则化和L2正则化又被称为L1范数和L2范数,虽然L1范数和L2范数与向量范数中的1范数和2范数类似,但并不完全相同。下面分别对L1正则化和L2正则化进行简单介绍:

    L1正则化:

    其中,C0代表原始的代价函数,后面那一项就是L1正则化项,它表示权重向量\omega中所有元素绝对值的和除以训练集的样本大小,然后乘以正则项系数λ。λ被称为超参(hyper-parameter),用于平衡模型在训练集上和测试集上的适用性,但一个合适的λ值需要手动调整。关于L1正则化兼有特征选择和增加模型的可解释性的作用,及L2正则化有助于后续的优化计算这两方面的具体内容,可以参考这两篇博文:

    https://blog.csdn.net/jinping_shi/article/details/52433975https://blog.csdn.net/zouxy09/article/details/24971995

    L2正则化:

    L2正则化即在原始代价函数的基础上L2正则化项,L2正则化项表示权重向量\omega中所有元素的平方和除以两倍训练集的样本大小(除两倍是为了方便后续计算),然后乘以正则项系数λ,与L1正则化项中的λ相同,L2正则化项中的λ也是用于平衡模型在训练集上和测试集上的适用性。

    正则化为什么可以抑制过拟合现象?

    用下面这张图来说明:

    上图右半部分中的蓝色曲线是对训练数据的过拟合。假设theta3和theta4远大于theta0和theta1,当我们给原始代价函数加上正则化项后,可以通过调节参数λ的值,使得最后求解出的参数theta3和theta4接近甚至等于0,从而达到抑制过拟合现象的目的。

    补充说明:出现过拟合现象的时候,拟合函数的系数往往非常大,为什么?答案引自知乎:如下图所示,过拟合,就是拟合函数需要顾忌每一个点,最终形成的拟合函数波动很大。在某些很小的区间里,函数值的变化很剧烈。这就意味着函数在某些小区间里的导数值(绝对值)非常大,由于自变量值可大可小,所以只有系数足够大,才能保证导数值很大。


     

    其他参考:

    《矩阵计算》G.H.Golub&C.F.Van_Loan

    Andrew Ng机器学习公开课

    https://blog.csdn.net/u012162613/article/details/44261657

    https://blog.csdn.net/zouxy09/article/details/24972869

    https://towardsdatascience.com/regularization-in-machine-learning-76441ddcf99a

    展开全文
  • 在数学上,范数包括向量范数和矩阵范数L1 范数和 L2 范数,用于机器学习 L1 正则化、L2 正则化。对于线性回归模型,使用 L1 正则化模型叫做 Lasso 回归,使用 L2 正则化模型叫做 Ridge 回归(岭回归)。其作用是...

    数学概念

    范数,是具有 “长度” 概念的函数。在线性代数、泛函分析及相关的数学领域,范数是一个函数,是矢量空间内的所有矢量赋予非零的正长度或大小。

    在数学上,范数包括向量范数矩阵范数

    L1 范数和 L2 范数,用于机器学习的 L1 正则化、L2 正则化。对于线性回归模型,使用 L1 正则化的模型叫做 Lasso 回归,使用 L2 正则化的模型叫做 Ridge 回归(岭回归)。

    其作用是:
    L1 正则化是指权值向量 w 中各个元素的绝对值之和,可以产生稀疏权值矩阵(稀疏矩阵指的是很多元素为 0,只有少数元素是非零值的矩阵,即得到的线性回归模型的大部分系数都是 0. ),即产生一个稀疏模型,可以用于特征选择;

    L2 正则化是指权值向量 w 中各个元素的平方和然后再求平方根,可以防止模型过拟合(overfitting);一定程度上,L1 也可以防止过拟合。

    Numpy函数介绍

    np.linalg.norm(x, ord=None, axis=None, keepdims=False)

    np.linalg.norm:linalg=linear(线性)+algebra(代数),norm则表示范数

    • x:表示矩阵(也可以是一维)

    • ord:范数类型

    • axis:轴向
      axis=1表示按行向量处理,求多个行向量的范数
      axis=0表示按列向量处理,求多个列向量的范数
      axis=None表示矩阵范数。

    • keepdims:是否保持矩阵的二维特性
      True表示保持矩阵的二维特性,False相反

    37867792d6e0f59ee57235eb20482078.png
    范数

    例子

    • 向量

     1>>> import numpy as np
    2>>> x=np.array([1,2,3,4])
    3>>> np.linalg.norm(x) #默认是二范数,所有向量元素绝对值的平方和再开方
    45.477225575051661
    5>>> np.sqrt(1**2+2**2+3**2+4**2)
    65.477225575051661
    7>>> np.linalg.norm(x,ord=1#所有向量元素绝对值之和
    810.0
    9>>> 1+2+3+4
    1010
    11>>> np.linalg.norm(x,ord=np.inf) #max(abs(x_i)),所有向量元素绝对值中的最大值
    124.0
    13>>> np.linalg.norm(x,ord=-np.inf) #min(abs(x_i)),所有向量元素绝对值中的最小值
    141.0
    • 矩阵

     1>>> import numpy as np
    2>>> x=np.arange(12).reshape(3,4)
    3>>> x
    4array([[ 0,  1,  2,  3],
    5       [ 4,  5,  6,  7],
    6       [ 8,  91011]])
    7>>> np.linalg.norm(x)  #默认是二范数,最大特征值的算术平方根
    822.494443758403985
    9>>> np.linalg.norm(x,ord=1#所有矩阵列向量绝对值之和的最大值
    1021.0
    11>>> x
    12array([[ 0,  1,  2,  3],
    13       [ 4,  5,  6,  7],
    14       [ 8,  91011]])
    15>>> np.linalg.norm(x,ord=1,axis=1#行向量的一范数
    16array([ 6.22.38.])
    17>>> np.linalg.norm(x,ord=2,axis=1#行向量的二范数
    18array([ 3.7416573911.2249721619.13112647])
    19>>> np.linalg.norm(x,ord=1,axis=1,keepdims=True#结果仍然是个矩阵
    20array([[ 6.],
    21       [22.],
    22       [38.]])

    历史相关文章

    • Pythoner还在为了练习Numpy而没有真实数据而烦恼吗?

    • Numpy中的shuffle和permutation区别


    以上是自己实践中遇到的一些问题,分享出来供大家参考学习,欢迎关注微信公众号,不定期分享干货

    09dfaceb16245b08f835fc1604b3316f.png
    展开全文
  • 机器学习中范数的作用

    千次阅读 2017-10-15 20:42:07
    范数的定义范数的一般化定义:对于实数X,p-norm的定义为: ||X||p=(∑ni=1|xi|p)1p||X||_{p}=(\sum_{i=1}^{n}|x_i|^p)^{\frac{1}{p}}其赋予某个向量空间(或矩阵)中每个元素以长度或大小。直观地说,范数越大,则...

    范数的定义

    范数的一般化定义:对于实数X,p-norm的定义为:
    ||X||p=(ni=1|xi|p)1p
    其赋予某个向量空间(或矩阵)中每个元素以长度或大小。直观地说,范数越大,则相应的向量或矩阵也就越大。三种范数在机器学习中的正则化与稀疏编码(Sparse Coding)中有非常有趣的应用。

    L0范数

    ||X||0=0ni=0X0i with xi!=0
    其表示向量中非零元素的个数。如果我们使用L0来规则化参数向量w,就是希望w的元素大部分都为零。L0范数的这个属性,使其非常适用于机器学习中的稀疏编码。在特征选择中,通过最小化L0范数来寻找最少最优的稀疏特征项。但是,L0范数的最小化问题是NP难问题。L1范数是L0范数的最优凸近似,它比L0范数要更容易求解。因此,L0优化过程将会被转换为更高维的范数(例如L1范数)问题。

    L1范数

    ||X||1=ni=1|Xi|
    L1范数是向量中各个元素绝对值之和,也被称作“Lasso regularization”(稀疏规则算子)。

    在机器学习特征选择中的应用

    稀疏规则化能够实现特征的自动选择。一般来说,xi的大部分元素(也就是特征)都是和最终的输出yi没有关系或者不提供任何信息的,在最小化目标函数的时候考虑xi这些额外的特征,虽然可以获得更小的训练误差,但在预测新的样本时,这些没用的信息反而会被考虑,从而干扰了对正确yi的预测。稀疏规则化算子的引入就是为了完成特征自动选择,它会学习地去掉这些没有信息的特征,也就是把这些特征对应的权重置为0。
    L1范数与L0范数都可以实现稀疏,而L1范数比L0具有更好的优化求解特性而被广泛使用。
    L0范数本身是特征选择的最直接最理想的方案,但如前所述,其不可分,且很难优化,因此实际应用中我们使用L1来得到L0的最优凸近似。

    L2范数

    ||X||2=ni=0X2i

    一.从学习理论的角度L2可以防止过拟合

    我们让L2的规则化项||w||2最小,可以使w中的每个元素都很小,但是不是像L1范数那样使元素等于0,而是接近于零。越小的参数说明模型越简单,越简单的模型越不容易产生过拟合的现象。??通过L2范数可以防止过拟合,提升模型的泛化能力。

    二.从优化计算的角度L2范数可以有助于处理condition number 不好地情况下矩阵求逆很困难的问题

    具体参见http://blog.csdn.net/zouxy09/article/details/24971995/
    L2范数不仅可以防止过拟合,还可以让我们的优化求解变的稳定和迅速。

    三.L2范数与L1范数的关系

    1)下降速度
    我们知道,L1和L2都是规则化的方式,我们将权值参数以L1或者L2的方式放到代价函数里面去。然后模型就会尝试去最小化这些权值参数。而这个最小化就像一个下坡的过程,L1和L2的差别就在于这个“坡”不同,如下图:L1就是按绝对值函数的“坡”下降的,而L2是按二次函数的“坡”下降。所以实际上在0附近,L1的下降速度比L2的下降速度要快。
    这里写图片描述
    2)最优化问题的平滑性
    从最优化问题解的平滑性来看,L1范数的最优解相对于L2范数要少,但是其往往是最优解,而L2范数的解很多,但其更多的倾向于某种局部最优解。
    这里写图片描述这里写图片描述
    但由于L1范数并没有平滑的方式表示,起初L1最优化问题解决起来非常困难。但是现在,很多凸优化问题使L1最优化成为可能。
    3)模型空间的限制
    实际上,对于L1和L2规则化的代价函数来说,我们可以写成以下形式:
    这里写图片描述
    也就是说,我们将模型空间限制在w的一个L1-ball 中。为了便于可视化,我们考虑两维的情况,在(w1, w2)平面上可以画出目标函数的等高线,而约束条件则成为平面上半径为C的一个 norm ball 。等高线与 norm ball 首次相交的地方就是最优解:
    这里写图片描述
    可以看到,L1-ball 与L2-ball 的不同就在于L1在和每个坐标轴相交的地方都有“角”出现,而目标函数的测地线除非位置摆得非常好,大部分时候都会在角的地方相交。注意到在角的位置就会产生稀疏性,例如图中的相交点就有w1=0,而更高维的时候(想象一下三维的L1-ball 是什么样的?)除了角点以外,还有很多边的轮廓也是既有很大的概率成为第一次相交的地方,又会产生稀疏性。
    相比之下,L2-ball 就没有这样的性质,因为没有角,所以第一次相交的地方出现在具有稀疏性的位置的概率就变得非常小了。这就从直观上来解释了为什么L1-regularization 能产生稀疏性,而L2-regularization 不行的原因了。因此,一句话总结就是:L1会趋向于产生少量的特征,而其他的特征都是0,而L2会选择更多的特征,这些特征都会接近于0。Lasso在特征选择时候非常有用,而Ridge就只是一种规则化而已。
    L2相对于L1具有更为平滑的特性,在模型预测中,往往比L1具有更好的预测特性。当遇到两个对预测有帮助的特征时,L1倾向于选择一个更大的特征。而L2更倾向把两者结合起来。

    L2,1范数

    ||X||2,1=ni=1tj=1X2i,j=ni=1X2i,:=ni=1||Xi,:||2
    原始矩阵是n行t列的,可以看出L2,1是对列求和,也就是先对每行元素求L2范数,然后再按行求和。
    从中可以看出,L2,1范数就是对矩阵X中每行元素的L2范数之和。
    在矩阵稀疏表示模型中,其作为正则化的作用?
    它是每行的L2范数之和。在最小化问题中,只有每一行的L2都最小结果才能最小。而怎么才能使每一行的L2范数取得最小呢?当行内尽可能多的元素为零时,约束才可能取得最小。而行内尽可能取零的含义就是行稀疏。
    不同于L1范数的稀疏要求(矩阵元素绝对值之和),L2,1范数还要求行稀疏。

    展开全文
  • 在数学上,范数包括向量范数和矩阵范数L1 范数和 L2 范数,用于机器学习 L1 正则化、L2 正则化。对于线性回归模型,使用 L1 正则化模型叫做 Lasso 回归,使用 L2 正则化模型叫做 Ridge 回归(岭回归)。其作用是...

    数学概念

    范数,是具有 “长度” 概念的函数。在线性代数、泛函分析及相关的数学领域,范数是一个函数,是矢量空间内的所有矢量赋予非零的正长度或大小。

    在数学上,范数包括向量范数矩阵范数

    L1 范数和 L2 范数,用于机器学习的 L1 正则化、L2 正则化。对于线性回归模型,使用 L1 正则化的模型叫做 Lasso 回归,使用 L2 正则化的模型叫做 Ridge 回归(岭回归)。

    其作用是:
    L1 正则化是指权值向量 w 中各个元素的绝对值之和,可以产生稀疏权值矩阵(稀疏矩阵指的是很多元素为 0,只有少数元素是非零值的矩阵,即得到的线性回归模型的大部分系数都是 0. ),即产生一个稀疏模型,可以用于特征选择;

    L2 正则化是指权值向量 w 中各个元素的平方和然后再求平方根,可以防止模型过拟合(overfitting);一定程度上,L1 也可以防止过拟合。

    Numpy函数介绍

    np.linalg.norm(x, ord=None, axis=None, keepdims=False)

    np.linalg.norm:linalg=linear(线性)+algebra(代数),norm则表示范数

    • x:表示矩阵(也可以是一维)

    • ord:范数类型

    • axis:轴向
      axis=1表示按行向量处理,求多个行向量的范数
      axis=0表示按列向量处理,求多个列向量的范数
      axis=None表示矩阵范数。

    • keepdims:是否保持矩阵的二维特性
      True表示保持矩阵的二维特性,False相反

    f92da3894f0a195d69a7a70c5139229d.png
    范数

    例子

    • 向量

     1>>> import numpy as np
    2>>> x=np.array([1,2,3,4])
    3>>> np.linalg.norm(x) #默认是二范数,所有向量元素绝对值的平方和再开方
    45.477225575051661
    5>>> np.sqrt(1**2+2**2+3**2+4**2)
    65.477225575051661
    7>>> np.linalg.norm(x,ord=1#所有向量元素绝对值之和
    810.0
    9>>> 1+2+3+4
    1010
    11>>> np.linalg.norm(x,ord=np.inf) #max(abs(x_i)),所有向量元素绝对值中的最大值
    124.0
    13>>> np.linalg.norm(x,ord=-np.inf) #min(abs(x_i)),所有向量元素绝对值中的最小值
    141.0
    • 矩阵

     1>>> import numpy as np
    2>>> x=np.arange(12).reshape(3,4)
    3>>> x
    4array([[ 0,  1,  2,  3],
    5       [ 4,  5,  6,  7],
    6       [ 8,  91011]])
    7>>> np.linalg.norm(x)  #默认是二范数,最大特征值的算术平方根
    822.494443758403985
    9>>> np.linalg.norm(x,ord=1#所有矩阵列向量绝对值之和的最大值
    1021.0
    11>>> x
    12array([[ 0,  1,  2,  3],
    13       [ 4,  5,  6,  7],
    14       [ 8,  91011]])
    15>>> np.linalg.norm(x,ord=1,axis=1#行向量的一范数
    16array([ 6.22.38.])
    17>>> np.linalg.norm(x,ord=2,axis=1#行向量的二范数
    18array([ 3.7416573911.2249721619.13112647])
    19>>> np.linalg.norm(x,ord=1,axis=1,keepdims=True#结果仍然是个矩阵
    20array([[ 6.],
    21       [22.],
    22       [38.]])

    历史相关文章

    • Pythoner还在为了练习Numpy而没有真实数据而烦恼吗?

    • Numpy中的shuffle和permutation区别


    以上是自己实践中遇到的一些问题,分享出来供大家参考学习,欢迎关注微信公众号,不定期分享干货

    c1e529904bf0103abbbc59a2d9023b6b.png
    展开全文
  • 本文参考: ... ... 3、深度学习入门:基于Python理论与实现斋藤康毅(作者) 理解范数 - : ... 在很多机器学习相关书籍中我们经常看到各种各样距离及范数,如 、 其中,,分别表示向量和矩阵。 ...
  • 2.2 范数

    千次阅读 2019-01-15 20:31:55
    矩阵向量范数 我们说行列式是对矩阵变换的...也有利于在优化和机器学习中起到正则化约束的作用,可以看作是矩阵或者向量距离的测度,这就是【范数】 用记号||.||表示范数。 向量范数 自然,我们会想到怎样定义...
  • 范数 为何物?

    2021-01-17 12:07:27
    其实范数的主要作用是衡量一个向量的大小,就是将向量映射到非负值的函数。直观讲就是:向量 xxx 的范数衡量 从原点到点 xxx 的距离。 形式上,LpL^pLp 范数定义为: ∥x∥p=(∑i∣xi∣p)1p\Vert x \Vert_p = \Biggl...
  • 谱半径线性算子的谱半径定义为谱半径在算法的收敛性证明中起到举足轻重的作用。我们先看一个简单的事实。算子作用在特征向量上就是一个拉伸,这里是广义的拉伸,因为特征值有可能是复数。那么反复作用会怎么样呢?...
  • 【1】公式: ... 所以l21范数的理解是行向量的l2范数之和 【3】正则化项的作用:使每一行的l2范数尽可能小,行内出现尽可能多的0元素,尽可能稀疏,也称为行稀疏。 【4】行稀疏、列稀疏统称结构化稀疏。
  • L21范数、行稀疏、结构稀疏

    千次阅读 2019-02-17 18:35:37
    【1】公式: ...以l21范数的理解是行向量的l2范数之和 【3】正则化项的作用:使每一行的l2范数尽可能小,行内出现尽可能多的0元素,尽可能稀疏,也称为行稀疏。 【4】行稀疏、列稀疏统称结构化...
  • 1 L2惩罚项 1.1 惩罚项  为了防止世界被破坏,为了维护...常见惩罚项有L0、L1和L2惩罚项,其中L0惩罚项为权值向量W中不为0分量个数,L1惩罚项为权值向量W各分量绝对值之和,这两个惩罚项皆可以很好地维持权值
  • 3、间隔应该是2/||w||,||w||代表向量的模,向量的模通常指就是其二范数。 4、考虑软间隔时候,C对优化问题影响就在于把a范围从[0,+inf]限制到了[0,C]。C越小,那么a就会越小,目标函数拉格朗日函数导数为
  • 正则项的作用—防止模型过拟合,正则化可以分为L1范数正则化与L2范数正则化 ????L1 AND L2范数 范数范数其实在 [0,∞)范围内的值,是向量的投影大小 在机器学习中一般会用于衡量向量的距离。一般会用||x|| ...
  • 我们在喉咙处Killing向量范数上找到了一定范围,并表明它是非黑土Bekenstein-Hawking(BH)熵指数小函数,尽管非零,但它为零。 我们还发现,对于大黑洞,半经典几何体可能温度呈指数级减小。 这些发现表明...
  • 一、范数的作用不多说,可以用来做回归,做损失函数等,下面传送门是关于范数的理解 几种范数的简单介绍 二、关于拉格朗日乘子法、KKT条件、拉格朗日对偶性,是推导公式“支持向量机”必须用到的前提知识 ...
  • 正则项的作用:降低模型过拟合的风险,通常常用的有L1范数正则化与L2范数正则化,作为单独一项(正则项)加入到损失函数中,也可以自己作为损失函数。 总结:L1和L2正则化项,又叫惩罚项,是为了限制模型的参数,...
  • Python3-numpy.linalg.norm

    2018-10-15 16:16:30
    numpy.linalg.norm作用是求向量的范数。下面介绍下他主要参数。 0x02 参数 x 类数组对象。如果没有指定axis,就只能是1或2维 ord 为设置具体范数值(默认是2范数) ord=2, 默认,二范数 = 向量中每个维度值...
  • 神经网络中损失函数后一般会加一个额外正则项L1或L2,也成为L1范数和L2范数。正则项可以看做是损失函数惩罚项,用来对损失函数中系数做一些限制。正则化描述:L1正则化是指权值向量w中各个元素绝对值之和;L2...
  • 神经网络中损失函数后一般会加一个额外正则项L1或L2,也成为L1范数和L2范数。正则项可以看做是损失函数惩罚项,用来对损失函数中系数做一些限制。 正则化描述: L1正则化是指权值向量w中各个元素绝对值之和; ...
  • 正则化简单介绍

    千次阅读 2020-09-19 21:02:41
    L1正则化项:权值向量w中各个元素绝对值之和,再乘以系数 L2正则化项:权值向量w中各个元素平方和开平方根,再乘以系数 正则化作用: L1正则化:可以产生稀疏权值矩阵,即产生一个稀疏模型,可以用于特征...
  • numpy中np.dot与np.multiply区别

    千次阅读 2018-05-02 21:09:01
    norm:范数的求解 http://www.cnblogs.com/zongfa/p/8745853.html 2、np.dot() 对于矩阵:得到的结果就是矩阵相乘的结果 对于一维向量:得到的结果就是向量的内积 # 作用于矩阵 X = np.array([[1,2],[3,4]])...
  • 归一化说明

    千次阅读 2017-05-05 12:15:56
    本文的目的是说明归一化的作用。 归一化是一种简化计算的方式,即将有量纲的表达式,经过变换,化为无量纲的表达式,成为标量。 在多种计算中都经常用到这种方法(百度百科)。 假设有一组数列,或者说向量(1,2,...
  • 有这么几个问题:1、什么是正则化?2、为什么要用正则化?3、正则化分为哪几类?... L1正则化就是参数向量的1范数:对参数向量各个分量去绝对值求和 L2正则化就是参数向量的2范数:对参数向量各个分量求平方和在...
  • 1. 什么是L1 L2? 正则化项,范式,惩罚项是不同学科范畴的学者的不同叫法,具体如下: 在机器学习称作正则化;...2. 在机器学习中L1 L2起到的作用是? 有如下比较普遍的解释: L1正则化:可以产生稀疏权值...
  • 正则化

    2020-08-08 18:39:47
    目录前言L1、L2范数代码展示 tf.nn.l2_loss提前终止训练dropout训练集增强 前言 目的:控制模型的学习容量,减弱过拟合...1式中可以看出,对于范数L1的正则化,会让特征变得稀疏,起到特征选择的作用。因为若 w_1 为正
  • tensorflow API:tf.norm

    千次阅读 2018-10-21 22:25:44
    tf.norm tf.norm( tensor, ord='euclidean', axis=None, ...作用:计算向量,矩阵的范数。 参数: tensor: 要计算张量。 ord:指定做什么样的范数计算。支持 'fro', 'euclidean', 1, 2...
  • 模型评估与选择

    2017-12-29 09:24:00
    1. 模型选择的典型方法...比如正则化项可以是模型参数向量范数。 正则化的作用: 选择经验风险与模型复杂度同时较小的模型 交叉验证: 在数据充足的情况下,会直接将数据分为训练集、验证集、测试集。 训练集用...
  • 高斯核函数

    2019-01-18 15:30:00
    高斯核函数 ...上述公式涉及到两个向量的欧式距离(2范数)计算, 而且,高斯核函数是两个向量欧式距离单调函数。 σ 是带宽,控制径向作用范围, 换句话说,σ 控制高斯核函数局部作用范围。...

空空如也

空空如也

1 2 3
收藏数 41
精华内容 16
关键字:

向量范数的作用