精华内容
参与话题
问答
  • LP范数

    千次阅读 2017-06-05 20:18:58
    一维情况 ...%description:p范数 clc close all clear all x1= -2:0.01:2; x=abs(x1); p=[0.5 1 2]; y1=x.^(p(1)); y2=x.^(p(2)); y3=x.^(p(3)); plot(x1,y1,'c:','linewidth',2); hold on plot(x1

    一维情况

    %2016.6.5
    %author:Lola
    %description:p范数
    
    clc
    close all
    clear all
    
    x1= -2:0.01:2;
    x=abs(x1);
    p=[0.5 1 2];
    y1=x.^(p(1));
    y2=x.^(p(2));
    y3=x.^(p(3));
    plot(x1,y1,'c:','linewidth',2);
    hold on
    plot(x1,y2,'r-.','linewidth',2);
    plot(x1,y3,'g','linewidth',2);
    xlabel('x');
    ylabel('|x|_p');
    legend('p=0.5','p=1','p=2');


    二维情况

    x1=-1:0.01:1;
    x=abs(x1);
    p=[0.5 1 2];
    y=1;
    y1=(y^p(1)-x.^p(1)).^(1/p(1));
    y2=(y^p(2)-x.^p(2)).^(1/p(2));
    y3=(y^p(3)-x.^p(3)).^(1/p(3));
    ylim=([-1,1]);
    plot(x1,y1,'c:','linewidth',2);
    hold on
    plot(x1,-y1,'c:','linewidth',2);
    plot(x1,y2,'r-.','linewidth',2);
    plot(x1,-y2,'r-.','linewidth',2);
    plot(x1,y3,'g','linewidth',2);
    plot(x1,-y3,'g','linewidth',2);
    xlabel('x_1');
    ylabel('x_2');
    legend('p=0.5','p=1','p=2');


    展开全文
  • 分数O-U过程的最小Lp范数估计的相合性,苗雨,郑凯,这篇文章我们将通过一个分布朗运动的极大不等式给出分数0-U过程参数的最小lp范数估计的相合性.
  • Lp范数与数据拟合

    千次阅读 2018-05-17 23:11:45
    Lp范数--------------------------------------------------------------------------------------定义如下,p取值范围[0,+∞)其中L0范数表示非零数据的个数 L+∞范数表示数据中的最大值 L-∞ 范数表示数据中的...

    Lp范数


    定义如下,p取值范围[0,+∞) 

    其中L0范数表示非零数据的个数

       L+∞范数表示数据中的最大值

       L-∞ 范数表示数据中的最小值

     

    与数据拟合的关系


    数据拟合中,通常说通过Lp范数最小化求解,是指yi的p次方和作为损失函数(无需再开p次方)

      

    损失函数最小,以求解表达式中的参数。通常取 p>=1(主要是了大数据计算方便)

    实际在小数据、少量参数情况下,通过优化算法,可以实现0<p<1情况的数据拟合

    以上公式只有在p=0,以及p=+∞时,才需要严格按照Lp范数的定义赋予损失函数

     

    要理解Lp范数对数据拟合的意义,我们先考虑如下情况

    p= 0  时,a 的结果为数列X的     众数 (由于0^0问题,此时损失函数需要按L0范数的定义写)

    p= 1  时,a 的结果为数列X的  中位数

    p= 2  时,a 的结果为数列X的  平均数

    p=+∞时,a 的结果为数列X的  中程数(即最大数与最小数的平均值,此时损失函数需要按L+∞范数的定义写)

     

    以上结论可以完全适用在Lp范数最小化的数据拟合上(偏差=真实数据-拟合函数预测值)

    在对异常值敏感度上,某数据在偏差Lp范数总和(损失函数)中占比越大,则对结果影响越大

    如p=2,异常值对应的偏差 y - f(a ,b...) (通常较大) 经过平方之后,在损失函数值中占比更大

    对结果的影响也更大,因此,相比L1范数求解方法,L2范数对异常值更敏感


    总结,Lp范数最小化进行数据拟合时,有如下意义:

       L0范数为      众数回归,对异常值    无感,有0偏差最多

       L1范数为   中位数回归,对异常值不敏感,有正偏差和负偏差数量相等

       L2范数为   平均数回归,对异常值较敏感,有平均偏差为0

       L+∞范数为中程数回归,对异常值高敏感,有最大正偏差和最小负偏差绝对值相等

     

    对于p等于其它数,其结果和对异常值的敏感性将介于以上两者其间

    如L0.5范数最小化数据拟合,应是融合中位数和众数的一种回归,对异常值敏感性也介于不敏感和无感之间

    0<p<1 的范数最小化数据拟合,能进一步降低异常值影响(相对于L1范数),同时把握整体规律,不至于陷入局部众数的影响(相对于L0范数),并在两者之间取得一个平衡。当然,其缺点也是有的,比如计算复杂、容易局部最优等,因此在实际应用中并不常见。

     

    参考资料


    https://blog.csdn.net/tiandijun/article/details/50380538

    https://www.zhihu.com/question/46664595

    展开全文
  • lp范数约束的去冲击干扰优化算法.pdf
  • 基于lp范数和融合字典的人脸识别算法.pdf
  • 基于Lp范数的Split Bregman迭代算法用于生物自发荧光断层成像,胡熠昉,刘杰,分子影像技术是一门运用影像学手段显示组织水平、细胞和亚细胞水平的特定分子,反映活体状态下分子水平变化,对生物学行为在影像
  • 提出一种HSV颜色直方图与像素的位置空间金字塔结合的方法,该方法既考虑像素的信息,又考虑了像素的位置信息,来进行视频镜头分割。将图像进行一次亚采样,对得到的第一层亚采样图像进行均匀的四分割;...
  • 迭代权重最小二乘(Iteratively reweighted least squares, IRLS) [1] 方法用于求解\(p\)范数(\(p\) norm)的最小化问题。问题如下: \[\arg \min_{x} \sum_{i} | y_i - f_i (x) |^p\] 通过迭代的方法,在每次迭代我们...

    迭代权重最小二乘(Iteratively reweighted least squares, IRLS) [1] 方法用于求解\(p\)范数(\(p\) norm)的最小化问题。问题如下:
    \[\arg \min_{x} \sum_{i} | y_i - f_i (x) |^p\]
    通过迭代的方法,在每次迭代我们都在解决一个加权的最小二乘问题:
    \[ x^{t+1} = \arg \min_{x} ~ \sum_{i} w_i(x^t) | y_i - f_i (x^t) |^2 \]
    此时,我们能够将原始的\(p\) norm问题转化为2-norm的问题。同时我们此时引入了一个随着迭代次数而改变的变量\(w_i(x^t)\)。一般地,我们定义\(t\) step的权重与\(t\) step的误差,即\(| y_i - f_i(x^t) |^p\)有关。我们首先初始化变量\(w_i^{t}\)为:
    \[ w_i^{0} = 1\]
    \(W\)矩阵的对角元素都为1,其他元素为0。在第\(t\)步,矩阵\(W\)的第\(i\)个对角元素\(w_i^{t}\)为:
    \[w_i^{t} = | y_i - f_i(x^t) |^{p-2} \]

    例子

    例如,我们要求解如下问题[2]:
    \[ \arg \min _{\sum s_{I,j} = 1; s_{i,j} \geq 0 } \sum_{j} || s_{i,j} - a_{i,j} ||_1 + \lambda \sum_{j} | f_i - f_j |_2^2 s_{i,j}\]
    我们使用迭代权重最小二乘法,可将上式写成
    \[ \arg \min _{\sum s_{I,j} = 1; s_{i,j} \geq 0 } \sum_{j} w_{i,j}(s_{i,j}^{t} ) | s_{i,j} - a_{i,j} |^2 +\lambda \sum_{j} | f_i - f_j |^2 s_{i,j} \]
    其中,
    \[ w_{j}^{t} = \frac{1}{| s_{i,j} - a_{i,j} |} \]
    当然,为了防止分母为零,我们很自然地会将上式写成下式的形式:
    \[ w_i^{t} = \frac{1}{\max(\epsilon, | s_{i,j} - a_{i ,j} |)}\]
    其中,\(\epsilon = 1e-6\)
    相比最开始的\(L1\)问题,上面的\(L2\)更容易被解决,因其处处可导且连续。

    matlab代码:

    matlab code will be uploaded soon!

    matlab code

    因此,由于能将\(L_p\)范数的问题转化为\(L_2\)范数的问题,IRLS在压缩感知、稀疏编码等方面取得非常广泛的应用。

    [1] Iteratively reweighted least squares
    [2] The Constrained Laplacian Rank Algorithm for Graph-Based Clustering

    转载于:https://www.cnblogs.com/yuningqiu/p/9922885.html

    展开全文
  • 针对已有压缩感知重构算法重构精度不高、消耗时间长的问题,在研究[lp]范数和光滑[l0]范数压缩感知重构算法的基础上提出改进算法。通过极大熵函数构造一种光滑函数来逼近最小[lp] 范数,对解序列进行离散化来近似...
  • Lp距离, L1范数, 和L2范数

    万次阅读 2016-07-31 17:12:22
    LpL_p距离, L1L_1范数, 和 L2L_2范数LpL_p 距离定义为: Lp(xi,xj)=(∑l=1n|x(l)i−x(l)j|p)1p L_p(x_i, x_j) = \left( \sum_{l=1}^{n} | x_i^{(l)} - x_j^{(l)} |^p \right)^{\frac{1}{p}} 其中xi∈Rnx_i \in \...

    Lp距离, L1范数, 和 L2范数

    Lp 距离定义为:

    Lp(xi,xj)=(l=1n|x(l)ix(l)j|p)1p

    其中xiRn, xjRn, 其中L定义为:

    L(xi,xj)=maxl|x(l)ix(l)j|

    L2范数

    L2定义为|x|=ni=1x2i,其中x=x1x2xnRn

    L1范数

    L1定义为|x|=ni=1|xi|,其中x=x1x2xnRn

    展开全文
  • Lp距离, L1范数, 和 L2范数

    千次阅读 2018-10-18 17:49:19
    原文地址:https://blog.csdn.net/hanhuili/article/details/52079590
  • Lp空间和L范数

    千次阅读 2018-09-18 15:20:56
    1. Lp空间和L范数 1.1 Lp空间: Lp空间是由p次可积函数组成的空间; 1.2 L范数:给定向量 ...Lp范数:向量各个元素绝对值的p次方求和然后求1/p 次方 范数:向量各个元素求绝对值,最大那个元素的绝对值...
  • ➤01 向量范数(Norm) 1.定义 对于向量xˉ\bar xxˉ的范数LpL_pLp​定义如下: ∥xˉ∥p=(∑i∣xi∣p)1p\left\| {\bar x} \right\|_p = \left( {\sum\limits_i^{} {\left| {x_i } \right|^p } } \right)^{{1 \over...
  • 其实,关于为什么选用1范数求解压缩感知问题,我也一直没有搞明白,不过还好遇到了彬彬有礼...压缩感知中的lp球:p范数最优化为什么总会导致一个稀疏的解的原因 明白了一点,常见的关于lp球的绘图都是基于二维绘制的!
  • 范式可以理解成距离 转载自: https://blog.csdn.net/hanhuili/article/details/52079590 内容如下: 由此可见,L2其实就是欧式距离。工程上,往往不做开平方处理。 转载于:...
  • L0/L1/L2/Lp/L∞范数的联系与区别

    万次阅读 2017-05-14 10:21:34
    L0/L1/L2/Lp/L∞范数的联系与区别 向量的范数可以简单形象的理解为向量的长度,或者向量到零点的距离,或者相应的两个点之间的距离。向量的范数定义:向量的范数是一个函数||x||,满足非负性||x|| >= 0,齐次性||cx|...
  • 范数

    2018-08-28 15:10:28
    形式上, Lp 范数定义如下: ∥x∥p=(∑i|xi|p)1p∥x∥p=(∑i|xi|p)1p\parallel x\parallel_p = (\sum_i|{x_i}| ^p)^\frac{1}{p} 其中 p∈R,p≥1p∈R,p≥1p \in R, p ≥ 1。 范数(包括...
  • 题目: 压缩感知中的lp球:p范数最优化为什么总会导致一个稀疏的解的原因

空空如也

1 2 3 4 5 6
收藏数 102
精华内容 40
关键字:

lp范数