为您推荐:
精华内容
最热下载
问答
  • 5星
    2KB weixin_42696271 2021-09-10 17:42:40
  • 5星
    1.05MB wlwdecs_dn 2021-01-20 08:52:45
  • 5星
    91KB weixin_42696271 2021-09-10 22:30:12
  • 5星
    660.34MB qq_38204881 2021-09-03 16:08:16
  • 5星
    41.71MB qq_44130638 2021-08-27 11:37:35
  • 5星
    31KB weixin_42696271 2021-09-11 15:28:03
  • 5星
    49.18MB weixin_42696333 2021-09-11 01:46:31
  • 5星
    82.7MB Roger_717 2021-07-29 14:56:18
  • 5星
    387KB weixin_44510615 2021-06-23 18:04:15
  • 5星
    116.59MB weixin_42818665 2021-05-15 21:21:36
  • 104.49MB weixin_43076256 2018-08-27 18:12:23
  • 压缩感知测量矩阵之有限等距性质(Restricted Isometry Property, RIP)_彬彬有礼的专栏-CSDN博客 约束等距性 | 机器之心 0 前情提要 0.1 数学模型和总体框图如下 给定输入信号X∈RN×1\boldsymbol{X} \in \mathbb{R...

    0 前情提要

    0.1 数学模型和总体框图如下

    给定输入信号 X ∈ R N × 1 \boldsymbol{X} \in \mathbb{R}^{N\times1} XRN×1,最终想要得到压缩信号 A ∈ R M × 1 \boldsymbol{A} \in \mathbb{R}^{M\times1} ARM×1 K < < N K<<N K<<N

    image-20210709133311121

    0.2 压缩过程图例分析如下

    整个压缩过程也可以被称为感知过程
    A = Φ X = Φ Ψ Y = Θ Y \boldsymbol{A} =\boldsymbol{\Phi}\boldsymbol{X} = \boldsymbol{\Phi}\boldsymbol{\Psi} \boldsymbol{Y} = \boldsymbol{\Theta}\boldsymbol{Y} A=ΦX=ΦΨY=ΘY

    Θ \boldsymbol{\Theta} Θ即为感知过程的核心命名为感知矩阵

    image-20210710112220724

    符号含义维度属性
    X \boldsymbol{X} X输入信号;待压缩信号 R N × 1 \mathbb{R}^{N\times1} RN×1未知,需要恢复
    Φ \boldsymbol{\Phi} Φ观测矩阵;测量矩阵 R M × N \mathbb{R}^{M \times N} RM×N已知(非自适应性)
    Ψ \boldsymbol{\Psi} Ψ变换矩阵;变换基矩阵;稀疏基矩阵;稀疏矩阵;正交基字典矩阵 R N × N \mathbb{R}^{N\times N} RN×N已知(非自适应性)
    Y \boldsymbol{Y} Y正交基变换后的稀疏表示 R N × 1 \mathbb{R}^{N\times1} RN×1未知,需要恢复
    Θ \boldsymbol{\Theta} Θ感知矩阵,传感矩阵 R M × N \mathbb{R}^{M\times N} RM×N已知(非自适应性)
    A \boldsymbol{A} A观测压缩所得到压缩信号 R M × 1 \mathbb{R}^{M\times1} RM×1已知

    0.3 算法重构恢复过程如下

    在得到已经压缩完的采样信号 A \boldsymbol{A} A后,根据确定的固定性观测矩阵 Φ \boldsymbol{\Phi} Φ和稀疏矩阵 Ψ \boldsymbol{\Psi} Ψ的先验信息进行恢复,数学表达如下
    X ˇ = f ( A , Θ ) \boldsymbol{\check{X}}=f(\boldsymbol{A},\boldsymbol{\Theta}) Xˇ=f(A,Θ)
    M < < N M<<N M<<N,欠定方程,一般可以抽象为如下求解任务

    min ⁡ ∥ Ψ T X ∥ 0 s . t . Θ X = Φ Ψ X = A \min \left\| \boldsymbol{\Psi}^{T} \boldsymbol{X}\right\|_{0} \\s.t. \boldsymbol{\Theta} \boldsymbol{X}=\boldsymbol{\Phi}\boldsymbol{\Psi}\boldsymbol{X}= \boldsymbol{A} minΨTX0s.t.ΘX=ΦΨX=A

    注意

    N = M N=M N=M,则可轻松由 A \boldsymbol{A} A解出 X \boldsymbol{X} X Y \boldsymbol{Y} Y

    M < < N M<<N M<<N,可根据稀疏表示下的信号 Y \boldsymbol{Y} Y和矩阵所具有的RIP性质重构

    1 发展历史

    RIP是压缩感知领域的一个重要概念,主要可以被用来分析还原算法的表现好坏。

    年份事件相关论文/Reference
    2005Emmanuel Candès、陶哲轩提出了当\delta_{2s}<1时可以保证(P0)有唯一解,并且用反证法对此问题进行了证明,大概思路是假设有两个解,会发现从RIP性质的不等式中可以得出这两个解是相等的。Candes, E.; Tao, T. (2005). Decoding by linear programming. IEEE Transactions on Information Theory. 59(8):4203-4215.
    2006Emmanuel Candès、陶哲轩和David Donoho证明了在已知信号稀疏性的情况下,可能凭借较采样定理所规定更少的采样数重建原信号,这一理论也是压缩感知的基石。Candès, E.; Romberg, J. K.; Tao, T. (2006). Stable signal recovery from incomplete and inaccurate measurements. Communications on Pure and Applied Mathematics. 59 (8): 1207–1223.
    2007Richard Baraniuk等人提出了一种简单的技术,用于验证压缩感知基础的随机矩阵的RIP性质Baraniuk, R.G., Davenport, M.A., DeVore, R.A., & Wakin, M.B. (2007). A Simple Proof of the Restricted Isometry Property for Random Matrices.
    2008Emmanuel Candès证明了当 δ 2 K < 1 \delta_{2K}<1 δ2K<1 时可以保证零范数问题有唯一的稀疏解,而当 δ 2 s s < 2 − 1 \delta_{2s}s<\sqrt2-1 δ2ss<2 1 时则可以保证0范数1范数等价。零范数求解为NP-hard问题,在此前提下将其转化为1范数求最优化问题,这时是个凸优化,对于求解很有帮助。Candes, E. (2008). The restricted isometry property and its implications for compressedsensing. Comptes Rendus Mathematique. 346(8-9): 589-592.

    2 本篇的主要思路

    前文有一定的简单介绍和逻辑分析(【压缩感知合集6】压缩感知为什么可以恢复信号;为什么需要满足稀疏性条件、RIP条件、矩阵不相关等限制条件才可以恢复信号的逻辑分析)这一篇文章我们详细理解一下,这个条件的必要性

    主要的问题如下

    • RIP性质是什么?
    • 为什么需要RIP性质
    • 为什么介绍K阶RIP性质后恢复K稀疏信号又要用2K阶RIP性质

    3 RIP性质定义

    RIP性质:有限等距性质(Restricted Isometry Property,RIP)

    不同文献上表达RIP的方式不同,一般主要有以下几种(为了不影响理解我将论文中使用的一些字母进行了替换,换成了我前文例子中的字母表示,但是不影响他对性质的具体定义):

    中文定义一

    传感矩阵 Θ \boldsymbol{\Theta} Θ 的RIP参数 δ k \delta_{k} δk 为满足下式的最小值 δ \delta δ
    ( 1 − δ ) ∥ Y ∥ 2 2 ⩽ ∥ Θ Y ∥ 2 2 ⩽ ( 1 + δ ) ∥ Y ∥ 2 2 (1-\delta)\|\boldsymbol{Y}\|_{2}^{2} \leqslant\left\|\boldsymbol{\Theta}{\boldsymbol{Y}}\right\|_{2}^{2} \leqslant(1+\delta)\|\boldsymbol{Y}\|_{2}^{2} (1δ)Y22ΘY22(1+δ)Y22
    其中 Y \boldsymbol{Y} Y K K K 稀疏信号。若 δ K < 1 \delta_{K} < 1 δK<1 ,则称测量矩阵 Θ \boldsymbol{\Theta} Θ 满足 K K K 阶RIP。

    王强,李佳,沈毅.压缩感知中确定性测量矩阵构造算法综述[J]. 电子学报,2013,41(10):2041-2050.

    中文定义二

    为了重构稀疏信号,Candès和Tao给出并证明了传感矩阵 Θ \boldsymbol{\Theta} Θ 必须满足约束等距性条件。

    对于任意 c ∈ R ∣ T ∣ \boldsymbol{c} \in \boldsymbol{R}^{|T|} cRT 和存在常数 δ K ∈ ( 0 , 1 ) \delta_{K} \in(0,1) δK(0,1) , 如果
    ( 1 − δ K ) ∥ c ∥ 2 2 ≤ ∥ Θ T c ∥ 2 2 ≤ ( 1 + δ K ) ∥ c ∥ 2 2 \left(1-\delta_{K}\right)\|\boldsymbol{c}\|_{2}^{2} \leq\left\|\boldsymbol{\Theta}_{T} \boldsymbol{c}\right\|_{2}^{2} \leq\left(1+\delta_{K}\right)\|\boldsymbol{c}\|_{2}^{2} (1δK)c22ΘTc22(1+δK)c22
    成立,其中 T ⊂ { 1 , ⋯   , N } T \subset\{1, \cdots, N\} T{1,,N} ∣ T ∣ ≤ K \left|T\right| \leq K TK ∣ T ∣ \left|T\right| T 表示集合的势,实数集内集合的势就是元素的个数, Θ T \boldsymbol{\Theta}_{T} ΘT Θ \boldsymbol{\Theta} Θ 中由索引集 T T T 所指示的相关列构成的大小为 K × ∣ T ∣ K\times\left|T\right| K×T 的子矩阵,则称矩阵 Θ \boldsymbol{\Theta} Θ 满足 K K K 阶有限等距性。

    通常,对于一个 K K K 稀疏信号 Y \boldsymbol{Y} Y (其 K K K 个非零值的位置是未知的),可以通过重构公式
    Y ˇ = arg ⁡ min ⁡ ∥ Y ∥ 0  s.t.  A = Θ X \check{\boldsymbol{Y}}=\arg \min \|\boldsymbol{Y}\|_{0} \quad \text { s.t. } \quad \boldsymbol{A} = \boldsymbol{\Theta} \boldsymbol{X} Yˇ=argminY0 s.t. A=ΘX
    实现从 A \boldsymbol{A} A 精确重构出 Y \boldsymbol{Y} Y 或者 X \boldsymbol{X} X 的充分条件是:矩阵 Θ \boldsymbol{\Theta} Θ , 对于任意 c ∈ R ∣ T ∣ \boldsymbol{c} \in \boldsymbol{R}^{\left|T\right|} cRT 和存在常数 δ 2 K ∈ ( 0 , 1 ) \delta_{2 K} \in(0,1) δ2K(0,1) 2 K 2 K 2K 阶有限等距性, 即
    ( 1 − δ 2 K ) ∥ c ∥ 2 2 ≤ ∥ Θ T c ∥ 2 2 ≤ ( 1 + δ 2 K ) ∥ c ∥ 2 2 \left(1-\delta_{2 K}\right)\|\boldsymbol{c}\|_{2}^{2} \leq\left\|\boldsymbol{\Theta}_{T} \boldsymbol{c}\right\|_{2}^{2} \leq\left(1+\delta_{2 K}\right)\|\boldsymbol{c}\|_{2}^{2} (1δ2K)c22ΘTc22(1+δ2K)c22
    成立,其中 T ⊂ { 1 , ⋯   , N } , ∣ T ∣ ≤ 2 K T \subset\{1, \cdots, N\}, |T| \leq 2 K T{1,,N},T2K

    李树涛,魏丹.压缩传感综述[J]. 自动化学报,2009,35(11):1369-1377.

    中文定义三

    需要设计一个平稳的、与变换基 Ψ \boldsymbol{\Psi} Ψ 不相关的 M × N M \times N M×N 维观测矩阵 Φ \boldsymbol{\Phi} Φ ,对 Y \boldsymbol{Y} Y 进行观测得到观测矩阵
    A = Φ X = Φ Ψ Y \boldsymbol{A}=\boldsymbol{\Phi}\boldsymbol{X}=\boldsymbol{\Phi} \boldsymbol{\Psi} \boldsymbol{Y} A=ΦX=ΦΨY
    该过程也可以表示为信号 $ \boldsymbol{Y}$ 通过矩阵 Θ \boldsymbol{\Theta} Θ 进行非自适应观测: A = Θ Y \boldsymbol{A}=\boldsymbol{\Theta}\boldsymbol{Y} A=ΘY

    其中 Θ = Φ Ψ \boldsymbol{\Theta}=\boldsymbol{\Phi} \boldsymbol{\Psi} Θ=ΦΨ。需要关注的问题是观测矩阵 Φ \boldsymbol{\Phi} Φ 的选取,需要保证稀疏向量 Y \boldsymbol{Y} Y N N N 维降到 M M M 维时重要信息不被破坏。在压缩感知理论中, 有限等距性质是判断矩阵是否可以成为测量矩阵的一个重要的标准。

    对于 K K K 稀疏向量 Y ∈ R N \boldsymbol{Y} \in \boldsymbol{R}^{N} YRN 来说,当它满足如下公式时,传感矩阵 Θ \boldsymbol{\Theta} Θ 满足有限等距性质。
    ( 1 − ε ) ∥ Y ∥ 2 ⩽ ∥ Θ Y ∥ 2 ⩽ ( 1 + ε ) ∥ Y ∥ 2 (1-\varepsilon)\|\boldsymbol{Y}\|_{2} \leqslant\|\boldsymbol{\Theta} \boldsymbol{Y}\|_{2} \leqslant(1+\varepsilon)\|\boldsymbol{Y}\|_{2} (1ε)Y2ΘY2(1+ε)Y2

    李坤,马彩文,李艳,陈萍. 压缩感知重构算法综述[J]. 红外与激光工程,2013,42(z1):225-232.

    英文定义一

    最多人引用的出处

    英文原文:

    image-20210712211558271

    整理归纳翻译,并改变字母如下:

    假设 F \boldsymbol{F} F 是有限个列向量 v j ∈ R P × 1 \boldsymbol{v}_j \in \boldsymbol{R}^{P\times 1} vjRP×1 的集合矩阵,其中 j ∈ J j\in J jJ

    对于任意整数 K K K 1 ≤ K ≤ ∣ J ∣ 1\leq K\leq \left| J\right| 1KJ,我们定义 K K K 阶有限等距系数 δ K \delta_{K} δK 为满足下式的最小值
    ( 1 − δ K ) ∥ c ∥ 2 ≤ ∥ F T c ∥ 2 ≤ ( 1 + δ K ) ∥ c ∥ 2 \left(1-\delta_{K}\right)\|\boldsymbol{c}\|^{2} \leq\left\|\boldsymbol{F}_T \boldsymbol{c}\right\|^{2} \leq\left(1+\delta_{K}\right)\|\boldsymbol{c}\|^{2} (1δK)c2FTc2(1+δK)c2
    式中的 T T T J J J 的任意子集 T ⊂ J T\sub J TJ ,元素个数最大为 K K K c \boldsymbol{c} c 可以是多个任意实数作为系数 c j c_j cj 构成的向量,其中 j ∈ T j\in T jT

    个人注释:

    • 如果 J = { 1 , 2 , . . . , N } J = \{1,2,...,N\} J={1,2,...,N} J J J 的势为 N N N ,即为 ∣ J ∣ = N \left|J\right| = N J=N
    • 对于构成 F \boldsymbol{F} F 的列向量 v j \boldsymbol{v}_j vj ,有 j ∈ J j \in J jJ ,也就是说 j = 1 , 2 , 3 , . . . N j= 1,2,3,...N j=1,2,3,...N F \boldsymbol{F} F 共有 N N N 个列向量 v j \boldsymbol{v}_j vj,每个列向量都 v j ∈ R p × 1 \boldsymbol{v}_j\in \boldsymbol{R}^{p\times 1} vjRp×1
    • 对于构成 F T \boldsymbol{F}_T FT 的列向量 v j \boldsymbol{v}_j vj ,有 j ∈ T j \in T jT ,其中 T T T J J J 的子集,此时可以理解为 F T \boldsymbol{F}_T FT 共有 ∣ T ∣ |T| T 个列向量 v j \boldsymbol{v}_j vj
    • 通过这种子集的方式,实现 ∣ T ∣ < ∣ J ∣ |T|<|J| T<J ,来表示稀疏,通过子集的势(也就是子集的元素数量),实现 ∣ T ∣ < K |T|<K T<K 来表示 K K K 阶的要求

    CandesE, Tao T. Decoding by linear programming. IEEE Transactions on InformationTheory, 2005,59(8):4203-4215.

    英文定义二

    英文原文

    image-20210712214127194

    整理归纳翻译,并改变字母如下:

    对于每一个整数 K = 1 , 2 , . . . K = 1,2,... K=1,2,... ,定义矩阵 Θ \boldsymbol{\Theta} Θ 的等距系数 δ k \delta_{k} δk δ k \delta_{k} δk 为在所有 K \boldsymbol{K} K 稀疏向量 Y \boldsymbol{Y} Y 情况下,都满足下面公式的最小值:
    ( 1 − δ K ) ∥ Y ∥ ℓ 2 2 ≤ ∥ Θ Y ∥ ℓ 2 2 ≤ ( 1 + δ K ) ∥ Y ∥ ℓ 2 2 \left(1-\delta_{K}\right)\|\boldsymbol{Y}\|_{\ell_{2}}^{2} \leq\|\boldsymbol{\Theta} \boldsymbol{Y}\|_{\ell_{2}}^{2} \leq\left(1+\delta_{K}\right)\|\boldsymbol{Y}\|_{\ell_{2}}^{2} (1δK)Y22ΘY22(1+δK)Y22
    如果一个向量最多有 K K K 个非零条目,则称它是 K K K 稀疏的。

    CandesE. The restricted isometry property and its implications for compressedsensing[J]. Comptes Rendus Mathematique, 2008,346(8-9): 589-592.

    英文定义三

    英文原文

    image-20210712212214601

    整理归纳翻译,并改变字母如下:

    这个简化问题(上所叙述的精确恢复问题)充分必要条件是:对于任意和 Y \boldsymbol{Y} Y有同样稀疏度 K K K的向量 V \boldsymbol{V} V存在 ε > 0 \varepsilon>0 ε>0满足下面的公式
    1 − ε ≤ ∥ Θ v ∥ 2 ∥ v ∥ 2 ≤ 1 + ε 1-\varepsilon \leq \frac{\|\boldsymbol{\Theta} \boldsymbol{v}\|_{2}}{\|\boldsymbol{v}\|_{2}} \leq 1+\varepsilon 1εv2Θv21+ε

    BaraniukR G. Compressive sensing. IEEE Signal Processing Magazine, 2007,24(4): 118-121.

    定义之间的分析比较

    三种中文RIP定义中:

    • 其实前两种是等价的。

    • 中文定义一定义中要注意要求 Y \boldsymbol{Y} Y K K K 稀疏信号。

    • 中文定义二研究的对象矩阵是从一个矩阵中根据索引 T T T 选出其中的若干列构成的子矩阵,而并没有对 c \boldsymbol{c} c 有稀疏性的要求;也就是说你可以这样认为,定义二中的 c \boldsymbol{c} c 是第一种中的 Y \boldsymbol{Y} Y K K K 个非零项,而索引 T T T 选出的几列则是第一种中的矩阵对应 Y \boldsymbol{Y} Y 的非零项的那几列。

    • 中文定义三和前面两种略有不同,整体上少一个平方,其实可以这样认为,中文定义三中的 ( 1 ± ε ) (1 \pm \varepsilon) (1±ε) 的平方实际上是第一、二种中的 ( 1 + δ ) (1+\delta) (1+δ) ,这会导致推导的参数 ε \varepsilon ε δ \delta δ 有差异。

    三种英文RIP定义中:

    • 英文定义一和前面的中文定义二基本一致。

    • 英文定义二和前面的中文定义一基本一致.

    • 从前两种定义中其实可以发现,人家是在说限制等距常数(Restricted IsometryConstant, RIC)的时候把RIP性质引出来的,RIP性质只要要求 δ ∈ ( 0 , 1 ) \delta \in(0,1) δ(0,1) 就可以了,而RIC是指满足RIP的最小 δ \delta δ

    • 英文定义三和中文定义三也是基本一致

    总结

    RIP性质只要要求 0 < δ < 1 0<\delta<1 0<δ<1 就可以了,而RIC是指满足RIP的最小 δ \delta δ 。整个式子可以视为信号跟传感矩阵的相似程度,也就是做转换q前后的能量,要被RIP限制住。

    4 RIP性质到底是对哪一个矩阵的约束?

    RIP性质的定义解释完毕,虽然在例子当中都有翻译和换算成统一的符号。在这里再进行一下总结和描述。

    符号含义维度属性
    X \boldsymbol{X} X输入信号;待压缩信号 R N × 1 \mathbb{R}^{N\times1} RN×1未知,需要恢复
    Φ \boldsymbol{\Phi} Φ观测矩阵;测量矩阵 R M × N \mathbb{R}^{M \times N} RM×N已知(非自适应性)
    Ψ \boldsymbol{\Psi} Ψ变换矩阵;变换基矩阵;稀疏基矩阵;稀疏矩阵;正交基字典矩阵 R N × N \mathbb{R}^{N\times N} RN×N已知(非自适应性)
    Y \boldsymbol{Y} Y正交基变换后的稀疏表示 R N × 1 \mathbb{R}^{N\times1} RN×1未知,需要恢复
    Θ \boldsymbol{\Theta} Θ感知矩阵,传感矩阵 R M × N \mathbb{R}^{M\times N} RM×N已知(非自适应性)
    A \boldsymbol{A} A观测压缩所得到压缩信号 R M × 1 \mathbb{R}^{M\times1} RM×1已知

    所有定义中定义都是类似于如下形式:(我用我自己的数学语言概括一下)
    Y ∼ sparse : Y ∈ R N × 1 ,    ∀ p ∈ ( 0 , 2 ) ,    ∃ R > 0 : ∥ Y ∥ p ≡ ( ∑ i = 0 N − 1 ∣ y i ∣ p ) 1 / p ⩽ R Y ∼ Strict K-sparse : Y ∈ R N × 1 , ∥ Y ∥ 0 = K Θ ∼ K-RIP : ∃    δ K ∈ ( 0 , 1 ) ,    For    ∀    Y ∼ K-sparse ,    Y ∈ R N × 1 ( 1 − δ K ) ∥ Y ∥ 2 ≤ ∥ Θ Y ∥ 2 ≤ ( 1 + δ K ) ∥ Y ∥ 2 \begin{aligned} &\boldsymbol{Y} \thicksim \text{sparse}:\\ &\qquad\boldsymbol{Y}\in \boldsymbol{R}^{N\times 1},\;\forall p\in(0,2),\; \exists R>0: \\ &\qquad\|\boldsymbol{Y}\|_{p} \equiv\left(\sum_{i=0}^{N-1}\left|y_{i}\right|^{p}\right)^{1 / p} \leqslant R \\ &\boldsymbol{Y} \thicksim \text{Strict K-sparse}:\\ &\qquad\boldsymbol{Y}\in \boldsymbol{R}^{N\times 1},\quad\|\boldsymbol{Y}\|_{0} =K\\ &\boldsymbol{\Theta} \thicksim \text{K-RIP}:\\ &\qquad \exists\; \delta_{K} \in (0,1),\; \text{For} \; \forall \; \boldsymbol{Y} \thicksim \text{K-sparse} ,\;\boldsymbol{Y} \in \boldsymbol{R}^{N\times 1} \\ &\qquad\left(1-\delta_{K}\right)\|\boldsymbol{Y}\|^{2} \leq\left\|\boldsymbol{\Theta}\boldsymbol{Y}\right\|^{2} \leq\left(1+\delta_{K}\right)\|\boldsymbol{Y}\|^{2} \end{aligned} Ysparse:YRN×1,p(0,2),R>0:Yp(i=0N1yip)1/pRYStrict K-sparse:YRN×1,Y0=KΘK-RIP:δK(0,1),ForYK-sparse,YRN×1(1δK)Y2ΘY2(1+δK)Y2

    K阶RIP即为存在常数 δ K ∈ ( 0 , 1 ) \delta_{K}\in (0,1) δK(0,1) ,对于任意 K K K 稀疏的向量 Y ∈ R N × 1 \boldsymbol{Y}\in\boldsymbol{R}^{N\times1} YRN×1(一般保证 K < < M < < N K<<M<<N K<<M<<N ) ,都使得传感矩阵 Θ \boldsymbol{\Theta} Θ 能符合下面要求
    ( 1 − δ K ) ∥ Y ∥ 2 ≤ ∥ Θ Y ∥ 2 ≤ ( 1 + δ K ) ∥ Y ∥ 2 \left(1-\delta_{K}\right)\|\boldsymbol{Y}\|^{2} \leq\left\|\boldsymbol{\Theta}\boldsymbol{Y}\right\|^{2} \leq\left(1+\delta_{K}\right)\|\boldsymbol{Y}\|^{2} (1δK)Y2ΘY2(1+δK)Y2

    image-20210714151746066

    文献[李树涛,魏丹.压缩传感综述[J]. 自动化学报,2009,35(11):1369-1377.]

    其中这里提到的文献[4]即为文献[BaraniukR G. Compressive sensing. IEEE Signal Processing Magazine, 2007,24(4):118-121.]

    RIP是针对传感矩阵 Θ \boldsymbol{\Theta} Θ 的没有问题,但是很多地方又说是针对测量矩阵 Φ \boldsymbol{\Phi} Φ 。这里解答一下这个问题。直接设计满足RIP的矩阵很难。但是 “由于稀疏矩阵是固定的,要使得传感矩阵 Θ \boldsymbol{\Theta} Θ 满足约束等距条件,可以通过设计测量矩阵 Φ \boldsymbol{\Phi} Φ 解决“。设计测量矩阵,让测量矩阵 Φ \boldsymbol{\Phi} Φ 满足某些性质之后可以实现传感矩阵 Θ \boldsymbol{\Theta} Θ 满足RIP

    5 为何要满足RIP有限等距性质的解释

    5.1 从能量角度考量

    向量的2范数的平方就是信号的能量,换成常见的公式:
    E = ∥ X ∥ 2 2 = ∑ i = − ∞ ∞ ∣ x i ∣ 2 E=\|\boldsymbol{X}\|_{2}^{2}=\sum_{i=-\infty}^{\infty}|x_i|^{2} E=X22=i=xi2
    这个公式可以数字信号处理教材中讲信号分类的章节找到,实际上将信号看成是电压信号或电流信号,这是在单位电阻上的能量(即 E = U 2 T / R E = U^2T/R E=U2T/R E = I 2 R T E = I^2RT E=I2RT R = 1 Ω R=1\Omega R=1Ω,再离散可)。

    这里将中文定义一中的RIP性质的不等式按本文定义的符号重新写出:
    ( 1 − δ ) ∥ Y ∥ 2 2 ≤ ∥ Θ Y ∥ 2 2 ≤ ( 1 + δ ) ∥ Y ∥ 2 2 (1-\delta)\|\boldsymbol{Y}\|_{2}^{2} \leq\|\boldsymbol{\Theta}\boldsymbol{Y}\|_{2}^{2} \leq(1+\delta)\|\boldsymbol{Y}\|_{2}^{2} (1δ)Y22ΘY22(1+δ)Y22
    这里的 ∥ Θ Y ∥ 2 2 \|\boldsymbol{\Theta}\boldsymbol{Y}\|_{2}^{2} ΘY22 实际上是上面能量公式中的 ∥ X ∥ 2 2 \|X\|^2_2 X22 ,即输出信号的能量 ∥ A ∥ 2 2 \|\boldsymbol{A}\|^2_2 A22 ∥ Y ∥ 2 2 \|\boldsymbol{Y}\|_{2}^{2} Y22 即输入信号的能量。

    稀疏变换 X = Ψ Y \boldsymbol{X} = \boldsymbol{\Psi} \boldsymbol{Y} X=ΨY 为正交变换,而正交变换保持能量不变,即信号理论中的Parseval定理。

    RIP其实可以看成刻画一个矩阵和标准正交阵的相似程度。其对于向量做变化后的能量(范数平方)相较于原向量的能量的变化不超过一定的范围。

    RIP对于Stability 的分析非常有效。RIP 是由 Candes 和 Tao 提出来的,可以看他们的提出这个概念的文章: Decoding by LinearProgramming(注:此段话在评论部分)。

    此处最核心的逻辑解释应该是:将稀疏信息量 Y \boldsymbol{Y} Y 观测为 A \boldsymbol{A} A 的过程中保证 Y \boldsymbol{Y} Y 中比较有价值的 K K K各分量不会在转换中能量损失太多或者被无端增幅太多,导致不可被恢复。

    其实取极限当 δ = 0 \delta=0 δ=0 时(RIP要求 δ ∈ ( 0 , 1 ) \delta \in (0,1) δ(0,1)),RIP的不等式实际上表示的是观测所得向量 A \boldsymbol{A} A 的能量等于信号 X \boldsymbol{X} X 的能量,在线性代数中所讲的正交变换也具有这种性质,也称为等距变换(把信号将为二维或三维时2范数 ∥ ⋅ ∥ 2 \|\cdot\|_2 2 的平方可形象的理解为到原点的距离)。当取到极限 δ = 0 \delta=0 δ=0 时也能保持能量相等(也可以称为等距),而RIP要求 0 < δ < 1 0<\delta<1 0<δ<1,所以不可能等距,所以就称为有限等距性质

    5.2 从相关性的角度考量

    从这个角度探讨一下测量矩阵 Φ ∈ R M × N \boldsymbol{\Phi}\in\boldsymbol{R}^{M\times N} ΦRM×N 需要满足的这个性质(后期被证明和RIP的矩阵不相关性质具体叙述在上一篇blog中有)。从这个角度可能比较好理解有限等距性。我们用极限分析法。如果我们把 Φ \boldsymbol{\Phi} Φ 构造成和 Ψ ∈ R N × N \boldsymbol{\Psi}\in\boldsymbol{R}^{N\times N} ΨRN×N 极端相似(Coherence)的矩阵,也就是直接拿出 Ψ \boldsymbol{\Psi} Ψ 的前 M M M 列,转置一下构成 Φ \boldsymbol{\Phi} Φ 。用这个构造带入,我们将得到:
    A = Φ Ψ Y = [ ψ 11 ψ 21 ⋯ ψ N 1 ψ 12 ψ 22 ⋯ ψ N 2 ⋮ ⋮ ⋮ ψ 1 M ψ 2 M ⋯ ψ N M ] [ ψ 11 ψ 12 ⋯ ψ 1 M ⋯ ψ 1 N ψ 21 ψ 22 ⋯ ψ 2 M ⋯ ψ 2 N ⋮ ⋮ ⋮ ψ N 1 ψ N 2 ⋯ ψ N M ⋯ ψ N N ] Y \begin{aligned} \boldsymbol{A} &= \boldsymbol{\Phi}\boldsymbol{\Psi}\boldsymbol{Y} \\ &=\left[\begin{array}{c} \psi_{11} \quad \psi_{21} \cdots \psi_{N1} \\ \psi_{12} \quad \psi_{22} \cdots \psi_{N2} \\ \vdots \quad \vdots \quad \vdots \\ \psi_{1M} \quad \psi_{2M} \cdots \psi_{NM} \\ \end{array}\right] \left[\begin{array}{c} \psi_{11} \quad \psi_{12} \cdots \psi_{1M} \cdots \psi_{1N}\\ \psi_{21} \quad \psi_{22} \cdots \psi_{2M} \cdots \psi_{2N}\\ \vdots \quad \vdots \quad \vdots\\ \psi_{N1} \quad \psi_{N2}\cdots\psi_{NM} \cdots \psi_{NN} \end{array}\right] \boldsymbol{Y} \end{aligned} A=ΦΨY=ψ11ψ21ψN1ψ12ψ22ψN2ψ1Mψ2MψNMψ11ψ12ψ1Mψ1Nψ21ψ22ψ2Mψ2NψN1ψN2ψNMψNNY
    你可以把 Φ \boldsymbol{\Phi} Φ Ψ \boldsymbol{\Psi} Ψ 相乘看作是从 Φ \boldsymbol{\Phi} Φ 中取了 K K K 个列出来按一定系数加在了一起。也就是说,你强迫的认为前 M M M 个变换域的基向量是重要的。而事实是,重要的 K K K 个分量的位置我们事先是不知道的,是随着信号的不同而不同的。所以实际上不会有这种随便取 K K K 列就完全正交的矩阵,因为传感矩阵 Θ \boldsymbol{\Theta} Θ 不可能是正交矩阵( Θ \boldsymbol{\Theta} Θ 都不是方阵)。

    当然,你可以将 Φ \boldsymbol{\Phi} Φ 恰好构造成对应 Ψ \boldsymbol{\Psi} Ψ 最重要分量的 K K K 行,得到正确的结果。而这种的做法要付出的概率代价是 1 C N K \frac{1}{C^K_N} CNK1 。也就是说,你必须穷举 C N K C^K_N CNK 次,才能得到你想要的结果。但是,即使你有幸碰到了它, 也并不能肯定这个结果就是对的。因此,我们选择 Φ \boldsymbol{\Phi} Φ Ψ \boldsymbol{\Psi} Ψ 极端不相似(Extremely Incoherence )。于是, Φ \boldsymbol{\Phi} Φ 很大程度上和随机(Randomnes)这个词相联系, 它可以是满足高斯分布的白噪声矩阵, 或贝努里分布的 ±1矩阵( 也称作Noiselet ) 等等。除此之外, 我们希望线性测量有稳定的能量性质,也就是它要保持K 个重要分量的长度。综:
    1 − δ ≤ ∥ Φ Ψ Y ∥ 2 ∥ Y ∥ 2 ≤ 1 + δ 1-\delta \leq \frac{\left\|\Phi \Psi \boldsymbol{Y}\right\|_{2}}{\|\boldsymbol{Y}\|_{2}} \leq 1+\delta 1δY2ΦΨY21+δ

    image-20210714104656219

    压缩传感引论(沙威博士)

    image-20210714151746066

    文献[李树涛,魏丹.压缩传感综述[J]. 自动化学报,2009,35(11):1369-1377.]

    其中这里提到的文献[4]即为文献[BaraniukR G. Compressive sensing. IEEE Signal Processing Magazine, 2007,24(4):118-121.]

    这里还提到了”任意 2 K 2K 2K 列都不相关“,其实这很好理解:

    如果矩阵有 2 K 2K 2K 列线性相关,存在一个向量 Y \boldsymbol{Y} Y
    ∑ i = 0 2 K ψ i ∗ y i = 0 \sum_{i=0}^{2K}\boldsymbol{\psi}_i*y_i = 0 i=02Kψiyi=0
    则对于某一个 2 K 2K 2K 稀疏的信号,必然会有 Ψ Y = 0 \boldsymbol{\Psi}\boldsymbol{Y}=0 ΨY=0

    又因为一个 2 K 2K 2K 稀疏的信号可以写成两个 K K K 稀疏的信号相减(把 2 K 2K 2K 稀疏信号的 2 K 2K 2K 个非零项分成两部分,每部分分别包含 K K K 个非零项,其余部分填零,长度与原 2 K 2K 2K 稀疏信号保持不变,即得到了两个 K K K 稀疏信号,其中的一个 K K K 稀疏信号中的 K K K 个非零项乘负一,另一部分减这一部分必然等于原始的 2 K 2K 2K 稀疏信号),这三个信号分别为 Y 2 K , Y K 1 , Y K 2 \boldsymbol{Y}_{2K},\boldsymbol{Y}_{K_1},\boldsymbol{Y}_{K_2} Y2K,YK1,YK2

    因此有
    Θ ( Y K 1 - Y K 2 ) = 0 ​ \boldsymbol{\Theta}(\boldsymbol{Y}_{K_1}-\boldsymbol{Y}_{K_2})=0​ Θ(YK1YK2)=0

    Θ Y K 1 = Θ Y K 2 \boldsymbol{\Theta}\boldsymbol{Y}_{K_1} = \boldsymbol{\Theta}\boldsymbol{Y}_{K_2} ΘYK1=ΘYK2
    也就是说对于两个不同的 K K K 稀疏信号 Y K 1 \boldsymbol{Y}_{K_1} YK1 Y K 2 \boldsymbol{Y}_{K_2} YK2 ,压缩观测后得到了同一个 A \boldsymbol{A} A ,即不能保证唯一映射,所以矩阵不能有 2 K 2K 2K 列线性相关,否则将不能保证唯一映射。

    关于spark常数讲的也是这么个道理,有兴趣可以看一下这篇文章

    浅谈压缩感知(十五):感知矩阵之spark常数 - AndyJee - 博客园

    另外还有一篇比较不错的文章

    Compressive Sensing

    5.3 从唯一映射角度考量

    RIP性质保证了观测矩阵不会把两个不同的 K K K 稀疏信号映射到同一个集合中(保证原空间到稀疏空间的一一映射关系),要求从观测矩阵中抽取的每 M M M 个列向量构成的矩阵是非奇异的。

    δ 2 k < 1 \delta_{2k}<1 δ2k<1 时,可以保证零范数问题有唯一的稀疏解

    δ 2 k < 2 − 1 \delta_{2k}<\sqrt{2}-1 δ2k<2 1 时则可以保证零范数和1范数等价(零范数求解为NP-hard问题,在此前提下将其转化为1范数求最优化问题,这时是个凸优化,之后的blog,会讲一下

    image-20210714150455418

    Candes E. Therestricted isometry property and its implications for compressed sensing[J].Comptes Rendus Mathematique, 2008,346(8-9): 589-592.

    δ 2 k < 2 − 1 \delta_{2k}<\sqrt{2}-1 δ2k<2 1 时可以保证问题P0有唯一解,并且用反证法对此问题进行了证明,大概思路是假设有两个解,会发现从RIP性质的不等式中可以得出这两个解是相等的。

    image-20210714151426481

    Candes E, Tao T.Decoding by linear programming. IEEE Transactions on Information Theory,2005,59(8):4203-4215.

    6 总结

    矩阵满足 2 K 2K 2KRIP保证了能够把任意一个 K K K 稀疏信号 Y \boldsymbol{Y} Y 映射为唯一的 A \boldsymbol{A} A ,也就是说要想通过压缩观测 A \boldsymbol{A} A 恢复 K K K 稀疏信号 Y \boldsymbol{Y} Y ,必须保证传感矩阵满足 2 K 2K 2KRIP,满足 2 K 2K 2KRIP的矩阵任意 2 K 2K 2K 列线性无关,即为不能有任意 2 K 2K 2K 列线性相关。

    然后还有对于一个感知矩阵而言,一定阶数的RIP 常数越小越好,其物理意义在于RIP 常数越小说明该矩阵内的任意小于该阶数的列向量之间的正交性越好,利用其对稀疏信号进行感知采样时,感知矩阵各列“采集”到的信息差异性越大,越有利于进行信号的重构和恢复。我们对这个矩阵的优化也主要集中在如何是其列间相关性变得更弱,相关性越弱则结果的分辨力应该就越高,更容易被有效恢复。

    7 疑问与一些自己的想法解释

    从能量角度来说,RIP实际上保证了压缩观测前后的能量变化范围,下限不能为零,上限不能超过原信号的两倍(RIP不等式中取 δ = 1 \delta=1 δ=1 的极限时)。这里的下限不能为零是很好理解的,当信号能量为零时表示原信号的所有项全部为零,零向量中自然是没有信息的;上限怎么理解呢?为什么压缩观测后的能量不能超过原信号的两倍呢?

    我个人做如下的解释:

    如果超过了两倍,就一定程度上代表在 Φ Ψ \boldsymbol{\Phi}\boldsymbol{\Psi} ΦΨ 相乘的过程中,有过多的矩阵行列向量( Φ \boldsymbol{\Phi} Φ 的行向量和 Ψ \boldsymbol{\Psi} Ψ 的列向量)完成了比较好的匹配(也就是相似),他们在因为较大相似性的情况下,有较多行列向量之间的相关性。导致部分变换基能量的过度集中放大,使得很难实现我们所想要的情况:对于任意 2 K 2K 2K 的行列向量都不会有很强的相关性,完成完全的精准的一一对应的恢复(证明见5.3)。

    有限等距常数RIC的取范围定义中约束为大于0小于1,RIC越趋近于零则压缩观测前后能量变化越小,是不是可以这样说:RIC越小说明对矩阵的要求越严(能量变化范围小),RIC越大说明对矩阵要求越宽松。比如在证明1范数0范数问题等价时经常说把 δ \delta δ 的范围放宽到某个值( δ \delta δ 范围变大),是不是这么个理呢?

    对于RIC的大小是否反应对这个矩阵的约束强弱:是的

    RIC越趋近于零则压缩观测前后能量变化越小,越有可能实现在更低采样率下的恢复

    8 拓展

    压缩感知测量矩阵之有限等距常数RIC的计算

    LAST、参考文献

    压缩感知测量矩阵之有限等距性质(Restricted Isometry Property, RIP)_彬彬有礼的专栏-CSDN博客_有限等距性质

    压缩传感引论(沙威博士)

    Compressive Sensing

    浅谈压缩感知(十六):感知矩阵之RIP - AndyJee - 博客园

    浅谈压缩感知(十五):感知矩阵之spark常数 - AndyJee - 博客园

    有限等距性质RIP的理解 - 知乎

    科学网—压缩感知有限等距性质(RIP)之理解 - 单广君的博文

    约束等距性 | 机器之心

    展开全文
    qq_41554005 2021-07-14 20:03:03
  • 浅谈压缩感知(二十六):压缩感知重构算法之分段弱正交匹配追踪(SWOMP) 主要内容: SWOMP的算法流程SWOMP的MATLAB实现一维信号的实验与结果门限参数a、测量数M与重构成功概率关系的实验与结果SWOMP与StOMP...

    浅谈压缩感知(二十六):压缩感知重构算法之分段弱正交匹配追踪(SWOMP)

    主要内容:

    1. SWOMP的算法流程
    2. SWOMP的MATLAB实现
    3. 一维信号的实验与结果
    4. 门限参数a、测量数M与重构成功概率关系的实验与结果
    5. SWOMP与StOMP性能比较

    一、SWOMP的算法流程

    分段弱正交匹配追踪(Stagewise Weak OMP)可以说是StOMP的一种修改算法,它们的唯一不同是选择原子时的门限设置,这可以降低对测量矩阵的要求。我们称这里的原子选择方式为"弱选择"(Weak Selection),StOMP的门限设置由残差决定,这对测量矩阵(原子选择)提出了要求,而SWOMP的门限设置则对测量矩阵要求较低(原子选择相对简单、粗糙)。

    SWOMP的算法流程:

    二、SWOMP的MATLAB实现(CS_SWOMP.m)

    复制代码
    function [ theta ] = CS_SWOMP( y,A,S,alpha )
    %   CS_SWOMP
    %   Detailed explanation goes here
    %   y = Phi * x
    %   x = Psi * theta
    %    y = Phi*Psi * theta
    %   令 A = Phi*Psi, 则y=A*theta
    %   S is the maximum number of SWOMP iterations to perform
    %   alpha is the threshold parameter
    %   现在已知y和A,求theta
    %   Reference:Thomas Blumensath,Mike E. Davies.Stagewise weak gradient
    %   pursuits[J].IEEE Transactions on Signal Processing,200957(11):4333-4346if nargin < 4
            alpha = 0.5; %alpha范围(0,1),默认值为0.5
        end
        if nargin < 3
            S = 10; %S默认值为10
        end
        [y_rows,y_columns] = size(y);
        if y_rows<y_columns
            y = y'; %y should be a column vector
        end
        [M,N] = size(A); %传感矩阵A为M*N矩阵
        theta = zeros(N,1); %用来存储恢复的theta(列向量)
        Pos_theta = []; %用来迭代过程中存储A被选择的列序号
        r_n = y; %初始化残差(residual)为y
        for ss=1:S %最多迭代S次
            product = A'*r_n; %传感矩阵A各列与残差的内积
            sigma = max(abs(product));
            Js = find(abs(product)>=alpha*sigma); %选出大于阈值的列
            Is = union(Pos_theta,Js); %Pos_theta与Js并集
            if length(Pos_theta) == length(Is)
                if ss==1
                    theta_ls = 0; %防止第1次就跳出导致theta_ls无定义
                end
                break; %如果没有新的列被选中则跳出循环
            end
            %At的行数要大于列数,此为最小二乘的基础(列线性无关)
            if length(Is)<=M
                Pos_theta = Is; %更新列序号集合
                At = A(:,Pos_theta); %将A的这几列组成矩阵At
            else%At的列数大于行数,列必为线性相关的,At'*At将不可逆
                if ss==1
                    theta_ls = 0; %防止第1次就跳出导致theta_ls无定义
                end
                break; %跳出for循环
            end
            %y=At*theta,以下求theta的最小二乘解(Least Square)
            theta_ls = (At'*At)^(-1)*At'*y; %最小二乘解
            %At*theta_ls是y在At列空间上的正交投影
            r_n = y - At*theta_ls; %更新残差
            if norm(r_n)<1e-6 %Repeat the steps until r=0
                break; %跳出for循环
            end
        end
        theta(Pos_theta)=theta_ls;%恢复出的theta
    end
    复制代码

    三、一维信号的实验与结果

    复制代码
    %压缩感知重构算法测试
    clear all;close all;clc;
    M = 128; %观测值个数
    N = 256; %信号x的长度
    K = 30; %信号x的稀疏度
    Index_K = randperm(N);
    x = zeros(N,1);
    x(Index_K(1:K)) = 5*randn(K,1); %x为K稀疏的,且位置是随机的
    Psi = eye(N); %x本身是稀疏的,定义稀疏矩阵为单位阵x=Psi*theta
    Phi = randn(M,N)/sqrt(M); %测量矩阵为高斯矩阵
    A = Phi * Psi; %传感矩阵
    y = Phi * x; %得到观测向量y
    
    %% 恢复重构信号x
    tic
    theta = CS_SWOMP( y,A);
    x_r = Psi * theta; % x=Psi * theta
    toc
    
    %% 绘图
    figure;
    plot(x_r,'k.-'); %绘出x的恢复信号
    hold on;
    plot(x,'r'); %绘出原信号x
    hold off;
    legend('Recovery','Original')
    fprintf('\n恢复残差:');
    norm(x_r-x) %恢复残差
    复制代码

    四、门限参数a、测量数M与重构成功概率关系的实验与结果

    1、门限参数a分别为0.1-1.0时,不同稀疏信号下,测量值M与重构成功概率的关系:

    复制代码
    clear all;close all;clc;
    
    %% 参数配置初始化
    CNT = 1000; %对于每组(K,M,N),重复迭代次数
    N = 256; %信号x的长度
    Psi = eye(N); %x本身是稀疏的,定义稀疏矩阵为单位阵x=Psi*theta
    alpha_set = 0.1:0.1:1;
    K_set = [4,12,20,28,36]; %信号x的稀疏度集合
    Percentage = zeros(N,length(K_set),length(alpha_set)); %存储恢复成功概率
    
    %% 主循环,遍历每组(alpha,K,M,N)
    tic
    for tt = 1:length(alpha_set)
        alpha = alpha_set(tt);
        for kk = 1:length(K_set)
            K = K_set(kk); %本次稀疏度
            %M没必要全部遍历,每隔5测试一个就可以了
            M_set=2*K:5:N;
            PercentageK = zeros(1,length(M_set)); %存储此稀疏度K下不同M的恢复成功概率
            for mm = 1:length(M_set)
               M = M_set(mm); %本次观测值个数
               fprintf('alpha=%f,K=%d,M=%d\n',alpha,K,M);
               P = 0;
               for cnt = 1:CNT  %每个观测值个数均运行CNT次
                    Index_K = randperm(N);
                    x = zeros(N,1);
                    x(Index_K(1:K)) = 5*randn(K,1); %x为K稀疏的,且位置是随机的                
                    Phi = randn(M,N)/sqrt(M); %测量矩阵为高斯矩阵
                    A = Phi * Psi; %传感矩阵
                    y = Phi * x; %得到观测向量y
                    theta = CS_SWOMP(y,A,10,alpha); %恢复重构信号theta
                    x_r = Psi * theta; % x=Psi * theta
                    if norm(x_r-x)<1e-6 %如果残差小于1e-6则认为恢复成功
                        P = P + 1;
                    end
               end
               PercentageK(mm) = P/CNT*100; %计算恢复概率
            end
            Percentage(1:length(M_set),kk,tt) = PercentageK;
        end
    end
    toc
    save SWOMPMtoPercentage1000 %运行一次不容易,把变量全部存储下来
    
    %% 绘图
    for tt = 1:length(alpha_set)
        S = ['-ks';'-ko';'-kd';'-kv';'-k*'];
        figure;
        for kk = 1:length(K_set)
            K = K_set(kk);
            M_set=2*K:5:N;
            L_Mset = length(M_set);
            plot(M_set,Percentage(1:L_Mset,kk,tt),S(kk,:));%绘出x的恢复信号
            hold on;
        end
        hold off;
        xlim([0 256]);
        legend('K=4','K=12','K=20','K=28','K=36');
        xlabel('Number of measurements(M)');
        ylabel('Percentage recovered');
        title(['Percentage of input signals recovered correctly(N=256,alpha=',...
            num2str(alpha_set(tt)),')(Gaussian)']);
    end
    for kk = 1:length(K_set)
        K = K_set(kk);
        M_set=2*K:5:N;
        L_Mset = length(M_set);
        S = ['-ks';'-ko';'-kd';'-k*';'-k+';'-kx';'-kv';'-k^';'-k<';'-k>'];
        figure;
        for tt = 1:length(alpha_set)
            plot(M_set,Percentage(1:L_Mset,kk,tt),S(tt,:));%绘出x的恢复信号
            hold on;
        end
        hold off;
        xlim([0 256]);
        legend('alpha=0.1','alpha=0.2','alpha=0.3','alpha=0.4','alpha=0.5',...
            'alpha=0.6','alpha=0.7','alpha=0.8','alpha=0.9','alpha=1.0');
        xlabel('Number of measurements(M)');
        ylabel('Percentage recovered');
        title(['Percentage of input signals recovered correctly(N=256,K=',...
            num2str(K),')(Gaussian)']);    
    end
    复制代码

      

      

      

    2、稀疏度为4,12,20,28,36时,不同门限参数a下,测量值M与重构成功概率的关系:

    复制代码
    clear all;close all;clc;
    load StOMPMtoPercentage1000;
    PercentageStOMP = Percentage;
    S = ['-ks';'-ko';'-kd';'-kv';'-k*'];
    figure;
    for kk = 1:length(K_set)
        K = K_set(kk);
        M_set=2*K:5:N;
        L_Mset = length(M_set);
        %ts_set = 2:0.2:3;第3个为2.4
        plot(M_set,Percentage(1:L_Mset,kk,3),S(kk,:));%绘出x的恢复信号
        hold on;
    end
    load SWOMPMtoPercentage1000;
    PercentageSWOMP = Percentage;
    S = ['-rs';'-ro';'-rd';'-rv';'-r*'];
    for kk = 1:length(K_set)
        K = K_set(kk);
        M_set=2*K:5:N;
        L_Mset = length(M_set);
        %alpha_set = 0.1:0.1:1;第6个为0.6
        plot(M_set,Percentage(1:L_Mset,kk,6),S(kk,:));%绘出x的恢复信号
        hold on;
    end
    hold off;
    xlim([0 256]);
    legend('StK=4','StK=12','StK=20','StK=28','StK=36',...
        'SWK=4','SWK=12','SWK=20','SWK=28','SWK=36');
    xlabel('Number of measurements(M)');
    ylabel('Percentage recovered');
    title(['Percentage of input signals recovered correctly(N=256,ts=2.4,\alpha=0.5)(Gaussian)']);
    复制代码

      

       

    结论:

    通过对比可以看出,总体上讲a=0.6时效果较好。

    五、SWOMP与StOMP性能比较

    对比StOMP中ts=2.4与SWOMP中α=0.6的情况:StOMP要略好于SWOMP。

    六、参考文章

    http://blog.csdn.net/jbb0523/article/details/45441601

    展开全文
    chichuhe 2017-12-28 21:44:32
  • 8.9MB programmer0000 2018-10-10 19:08:55
  • 因为学习原因,需要了解压缩感知。 找了几篇文章看了一下,结合之前稀疏表征的相关经验,简单的理解了一下,此处做个笔记,便于自己之后复习,也便于大家对压缩感知有一个初步的了解。 压缩感知的大体思路 面对实际...

    因为学习原因,需要了解压缩感知。
    找了几篇文章看了一下,结合之前稀疏表征的相关经验,简单的理解了一下,此处做个笔记,便于自己之后复习,也便于大家对压缩感知有一个初步的了解。

    压缩感知的大体思路

    面对实际中的信号,它可能数据规模十分的巨大,从而不便于传输与存储,所以我们需要对该信号进行一个压缩,然后将其进行传输或存储,之后再将其进行还原。

    在现有的传统的信号处理模式中,信号要采样、压缩然后再传输,接收端要解压再恢复原始信号。
    这里采样需要遵守奈奎斯特采样定律,而实际中采样的频率往往还高于奈奎斯特的2倍,从而导致采样的数据量其实也很大。
    之后便是对采样得到的数据进行压缩,将数据交换到一个变换域上,然后将此变换域上的数值较大的数据保留下来,而大部分数值较小的数据被丢弃。如此之后,作为主要特征的信息便被提取出来,而大部分次要特征的信息被丢弃。由此便是对输入信号的压缩。

    而压缩感知与传统的采样+压缩的模式不同的是,它首先不遵从奈奎斯特采样定理,其次,它并没有分为采样和压缩,应该说,压缩感知的采样就是压缩。
    采样之后将采样的数据直接传输,之后在接收端便可以通过适当的重构算法进行重构

    从奈奎斯特到压缩感知

    下面就从熟悉的奈奎斯特来引入压缩感知。

    奈奎斯特抽样定理指若频带宽度有限的,要从抽样信号中无失真地恢复原信号,抽样频率应大于2倍信号最高频率。
    这是百度百科对于奈奎斯特定理的定义。
    因为信号与系统已经是很久之前学的了,所以记得不是很深。
    只记得是对频带宽度有限的信号,采样频率要大于2倍。

    在频域上采样的频率要大于2倍最高频率,那么在时域上就要采样的时间间隔就要小于1/2的最小周期。
    如此一来,从时域上看,在能够恢复出原始信号的要求上来看,较为密集的采样是避免不了的了。
    同时,在实际中,采样的频率会更高,不止是2倍,可能是5倍,8倍甚至更高,那么此时,整体的采样时间间隔就会更小,采样会更密集。如此,采样的数据量就会很大。

    在遵从奈奎斯特采样定理时,我们可以发现,这里有两个重要的点。
    一个是2倍;一个是以一定频率进行采样。

    以一定频率进行采样,其实就是在时域上进行等距离采样。

    那么如果不等距离采样,是不是就不用遵循奈奎斯特定理了呢?

    是的,压缩感知就是如此诞生的。
    当对信号进行随机不等间距采样时,发现也是可以得
    随机不等间距采样,使得频谱不再是整齐地搬移,而是一小部分一小部分胡乱地搬移,频率泄露均匀地分布在整个频域,因而泄漏值都比较小,从而有了恢复的可能。

    因为是随机采样,所以频域上不是以固定周期进行延拓,会产生大量不相关的干扰值,这里也就是因为对原始信号进行的随机采样,间距不等,很可能频率远小于奈奎斯特要求,从而在频率上产生了大量的交叠。
    但是原始信号的非零值还是存在的,而且可以通过阈值检测出来。之后再计算检测出的较大值所带来的干扰,消除干扰,降低阈值,迭代的去将原信号中频域非零值给提取出来。

    所以,压缩感知的核心点在于,其不遵从奈奎斯特采样定理。而这原因在于,压缩感知的采样是随机的,不等间距的,故不用管奈奎斯特。
    不过压缩感知也是有要求的,它需要保证信号是稀疏的。
    一旦信号不稀疏,进行违背奈奎斯特的随机非等间距采样时,频域上的交叠会导致难以恢复原始信号。

    在压缩感知过程中,如果将采样频率降低,使得其很小,那么采样的时域间隔就会相对很大,加上一定方式的随机采样,此时采样得到的数据量就会很小,从而实现了一种压缩。
    这里采样即压缩。

    压缩感知公式

    在这里插入图片描述

    一般的,压缩感知的数学公式为 y = Φ x y=\Phi x y=Φx 其中 y y y是观测值,也就是我们随机的采样值, 而 Φ \Phi Φ是观测矩阵,也就是我们采样的规则, x x x 是我们的原始信号。
    从这个公式我们来理解压缩感知。
    从右到左,是采样的过程,已知 Φ \Phi Φ x x x 求解 y y y ,对于原始信号,我们通过观测矩阵所描述的观测(采样)方式,从而获得了观测值(采样值)。当我们处理信号为稀疏信号时,那么便可以保证在采样阶段,观测值的数据量是远小于原始信号。
    而从左到右,就是重构的过程,已知 y y y Φ \Phi Φ 求解 x x x

    而在实际中,我们的信号 x x x 往往并不稀疏,那么此时便对其进行处理,使其变得稀疏,比如进行正交变换, x = Ψ s x = \Psi s x=Ψs 前者是正交变换矩阵,后者是信号被投影到的另一个空间的向量,它满足稀疏性。如此我们的公式便成了 y = Φ x = Φ Ψ s y=\Phi x = \Phi \Psi s y=Φx=ΦΨs 进一步,对待信号 x x x ,不仅可以进行正交变换,还可以进行稀疏分解,通过字典和稀疏码来表示信号 x x x,从而我们的公式便成了 y = Φ x = Φ D ∗ s y=\Phi x=\Phi D*s y=Φx=ΦDs 其中 D D D 是字典, s s s是对应的稀疏码。

    (此处便是稀疏表征的概念,稀疏表征所起到的作用就是对于并不稀疏的信号,通过正交变换或者什么投影的方式,或者字典学习等,获取该信号的稀疏表示,从而适用于后序的压缩感知的进行。稀疏表征是压缩感知的前提之一,它是包含在压缩感知中的。)
    针对上面说的信号的压缩感知来说,这里的 Φ \Phi Φ 就是对信号的随机采样的方式,而 Ψ \Psi Ψ 是对信号进行傅里叶变换,将其从时域转换到频域,使得信号变换到频域,变得稀疏,而 y y y 就是采样的结果

    至此,我们便可以将前两个矩阵合并,从而最终的公式写成 y = Θ s y=\Theta s y=Θs Θ \Theta Θ我们称做传感矩阵。

    进行采样是比较简单的,原始信号根据采样方式进行采样即可。
    但重构比较麻烦。
    问题即为,已知 y y y Θ \Theta Θ,求解 s s s
    y y y s s s 同一维度时,可以轻松解出 s s s
    而当 y y y 维度小于 s s s 时,边可以根据 s s s 的rip特性重构。(这里rip特性是有限等距性质)

    参考资料

    https://zhuanlan.zhihu.com/p/22445302
    https://www.zhihu.com/question/28552876?sort=created

    展开全文
    qq_34687559 2021-01-21 10:34:50
  • 2KB weixin_42151305 2021-07-04 09:27:33
  • 忽然想不起 压缩感知的原理 采样定理的原理上的差别。 奈奎斯特采样定理:https://www.cnblogs.com/AndyJee/p/5050321.html 定理:为了不失真地恢复模拟信号,离散信号系统的采样频率不小于模拟信号...

    机器之心  https://mp.weixin.qq.com/s/n7oeblund-YRl88VrLGRAg【马毅教授「高维数据的低维结构与深度模型」

    忽然想不起 压缩感知的原理  采样定理的原理上的差别。

    奈奎斯特采样定理:https://www.cnblogs.com/AndyJee/p/5050321.html

    定理:为了不失真地恢复模拟信号,离散信号系统的采样频率不小于模拟信号频谱中最高频率的2倍。

    在时域上,频带为F的连续信号f(t)可用一系列离散的采样值f(t1),f(t1+Δt),f(t1+2Δt)…来表示,只要这些采样点的时间间隔Δt <= 1/2F,便可根据各采样值完全恢复原始信号。

    在频域上,当时间信号函数f(t)的最高频率分量为fmax时,f(t)的值可由一系列采样间隔小于或等于1/2fmax的采样值来确定,即采样点的重复频率为fs >= 2fmax。

    采样定理指出,只要离散系统的奈奎斯特频率高于采样信号的最高频率或带宽,就可以避免混叠现象。从理论上说,即使奈奎斯特频率恰好大于信号带宽,也足以通过信号的采样重建原信号。但是,重建信号的过程需要以一个低通滤波器或者带通滤波器将在奈奎斯特频率之上的高频分量全部滤除,同时还要保证原信号中频率在奈奎斯特频率以下的分量不发生畸变,而这是不可能实现的。在实际应用中,为了保证抗混叠滤波器的性能,接近奈奎斯特频率的分量在采样和信号重建的过程中可能会发生畸变。因此信号带宽通常会略小于奈奎斯特频率,具体的情况要看所使用的滤波器的性能。需要注意的是,奈奎斯特频率必须严格大于信号包含的最高频率。如果信号中包含的最高频率恰好为奈奎斯特频率,那么在这个频率分量上的采样会因为相位模糊而有无穷多种该频率的正弦波对应于离散采样,因此不足以重建为原来的连续时间信号。

    压缩感知:

    压缩感知:作为一个新的采样理论,通过利用信号的稀疏特性,在远小于Nyquist采样率的条件下,用随机采样获取信号的离散样本,然后通过非线性重建算法完美重建信号。

    提出背景:众所周知,在奈奎斯特采样定理为基础的传统数字信号处理框架下,若要从采样得到的离散信号中无失真地恢复模拟信号,采样速率必须至少是信号带宽的两倍。然而,随着当前信息需求量的日益增加,信号带宽越来越宽,在信息获取中对采样速率和处理速度等提出越来越高的要求。最近由D Donoho、E Candbs及华裔科学家T Tao等人提出的压缩感知(Compressive Sensing,CS)理论指出了一条模拟信号"经济地"转化为数字形式的压缩信号的有效途径:利用变换空间描述信号,通过直接采样得到少数有用的线性观测数据(包含信号全局信息的压缩数据),然后解一个优化问题就可以从观测数据中恢复原始信号。

    压缩感知与奈奎斯特采样定理:

    从采样的角度来看,压缩感知和基于奈奎斯特采样定理的传统信号采集是两种不同形式的信号采集方式。(压缩感知打破了传统信号处理中对于奈奎斯特采样要求的限制)

    采样率:在压缩感知理论下,信号的采样率不再取决于信号的带宽,而是取决于信息在信号中的结构与内容(稀疏性)。关于采样率的计算方式,压缩感知是从少量离散测量数据恢复离散数字信号,其计算方式为采样率=测量值的大小/恢复信号的大小;而传统信号采集是从离散采样数据中恢复模拟信号(时序信号),采样率指的是一个采集频率,在我看来,这两者定义的采样率不具有可比性。(但从绝对值来看,压缩感知的采集数据量应该是小于或远小于传统采集)

    信号采集方式:传统采样理论是通过均匀采样(极少情况下也采用非均匀采样)获取数据;压缩感知则通过计算信号与一个观测函数之间的内积来获得观测数据(AX=b);

    恢复信号形式:传统采样定理关注的对象是无限长的连续信号;压缩感知是有限维观测向量空间的向量(离散信号);

    恢复信号方式:传统采样恢复是在Nyquist采样定理的基础上,通过采样数据的sinc函数线性内插获得(在不均匀采样下则是非线性的插值恢复),而压缩感知采用的是利用信号的稀疏性,从线性观测数据中通过求解一个非线性的优化问题来恢复信号的方法。

    压缩感知的核心思想:压缩和采样合并进行,并且测量值远小于传统采样方法的数据量,突破香农采样定理的瓶颈,使高分辨率的信号采集成为可能。

     

    压缩感知理论 - WeisongZhao - CSDN博客  https://blog.csdn.net/weixin_41923961/article/details/82763275

    简单地说,压缩感知理论指出:只要信号是可压缩的或在某个变换域是稀疏的,那么就可以用一个与变换基不相关的观测矩阵将变换所得高维信号投影到一个低维空间上,然后通过求解一个优化问题就可以从这些少量的投影中以高概率重构出原信号,可以证明这样的投影包含了重构信号的足够信息。

           在该理论框架下,采样速率不再取决于信号的带宽,而在很大程度上取决于两个基本准则:稀疏性和非相关性,或者稀疏性和等距约束性。

    压缩感知理论主要包括三部分:

    (1)信号的稀疏表示;

    (2)设计测量矩阵,要在降低维数的同时保证原始信号x的信息损失最小;

    (3)设计信号恢复算法,利用M个观测值无失真地恢复出长度为N的原始信号。

    理论依据:

    (1)设长度为N的信号X在某个正交基Ψ上是K-稀疏的(即含有k个非零值);

    (2)如果能找到一个与Ψ不相关(不相干)的观测基Φ;

    (3)用观测基Φ观测原信号得到长度M的一维测量值M个观测值Y,K<M<<N;

    (4)那么就可以利用最优化方法从观测值Y中高概率恢复X

     

    数学表达:

           设x为长度N的一维信号,稀疏度为k(即含有k个非零值),A为M×N的二维矩阵(M<N),y=Φx为长度M的一维测量值。压缩感知问题就是已知测量值y和测量矩阵Φ的基础上,求解欠定方程组y=Φx得到原信号x。Φ的每一行可以看作是一个传感器(Sensor),它与信号相乘,拾取(Acquisition)了信号的一部分信息。而这一部分信息足以代表原信号,并能找到一个算法来高概率恢复原信号。

    将原来的测量矩阵Φ变换为Θ=ΦΨ(称之为传感矩阵),解出s的逼近值s’,则原信号x’ = Ψs’。

     

    1、信号的稀疏表示

           信号的稀疏性简单理解为信号中非0元素数目较少,或者说大多数系数为0(或者绝对值较小)。

    自然界存在的真实信号一般不是绝对稀疏的,而是在某个变换域下近似稀疏,即为可压缩信号。或者说从理论上讲任何信号都具有可压缩性,只要能找到其相应的稀疏表示空间,就可以有效地进行压缩采样。信号的稀疏性或可压缩性是压缩感知的重要前提和理论基础。

           稀疏表示的意义:只有信号是K稀疏的(且K<M<<N),才有可能在观测M个观测值时,从K个较大的系数重建原始长度为N的信号。也就是当信号有稀疏展开时,可以丢掉小系数而不会失真。

          我们知道,长度为N的信号X可以用一组基ΨT=[Ψ1,…, ΨM]的线性组合来表示:

           xs,Ψ为稀疏基NxN矩阵,s为稀疏系数(N维向量),当信号X在某个基Ψ上仅有 K<<N个非零系数或远大于零的系数s时,称Ψ为信号X的稀疏基。我们需要做的就是合理地选择稀疏基,使得信号的稀疏系数个数尽可能少。

           再啰嗦点的话:如果长度为N的信号X,在变换域Φ中只有K个系数不为零(或者明显大于其他系数),且K<<N,那么可以认为信号X在Φ域中是稀疏的并可称为K-稀疏(不是严格的定义)。那么在该域下,我们如果只保留这M个大系数,丢弃其他的系数,则可以减小储存该信号需要的空间,达到了压缩(有损压缩)的目的。同时,以这M个系数可以重构原始信号X,不过一般而言得到的是X的一个逼近。

           我们应该熟悉JPEG跟JPEG2000的区别吧,JPEG的核心算法是DCT,而后者是DWT,本质上,这两种处理方法都是将信号从一个域变换到另外一个域(把坐标系进行旋转,将信号投影到不同的基上),从而获得信号的稀疏表示,即用最少的系数来表示信号,不过DWT比DCT更加稀疏而已。信号不同,对应最稀疏表达的基也会不同,比如,对于一维信号可能小波基是最稀疏的,而对于图像而言,可能那些Curvelet和contourlet是最优的,对于有些信号,也有可能需要将几种基结合起来才是最优的。稀疏分解是找到信号的最稀疏最有效的表达。

            信号在某种表示方式下的稀疏性,是压缩感知应用的理论基础,经典的稀疏化的方法有离散余弦变换(DCT)、傅里叶变换(FFT)、离散小波变换(DWT)等。

            最近几年,对稀疏表示研究的另一个热点是信号在冗余字典下的稀疏分解。 这是一种全新的信号表示理论:用超完备的冗余函数库取代基函数,称之为冗余字典,字典中的元素被称为原子。目前信号在冗余字典下的稀疏表示的研究集中在两个方面:一是如何构造一个适合某一类信号的冗余字典,二是如何设计快速有效的稀疏分解算法。目前常用的稀疏分解算法大致可分为匹配追踪(Matching Pursuit)和基追踪(Basis Pursuit)两大类。

     

    2、信号的观测矩阵

          观测矩阵(也称测量矩阵)MxN(M<<N)是用来对N维的原信号进行观测得到M维的观测向量Y,然后可以利用最优化方法从观测值Y中高概率重构X。也就是说原信号X投影到这个观测矩阵(观测基)上得到新的信号表示Y。

          观测矩阵的设计目的是如何采样得到M个观测值,并保证从中能重构出长度为N的信号X或者稀疏基Ψ下等价的稀疏系数向量。

           为了保证能够从观测值准确重构信号,其需要满足一定的限制:观测基矩阵与稀疏基矩阵的乘积满足RIP性质(有限等距性质)。这个性质保证了观测矩阵不会把两个不同的K稀疏信号映射到同一个集合中(保证原空间到稀疏空间的一一映射关系),这就要求从观测矩阵中抽取的每M个列向量构成的矩阵是非奇异的。

    在CS编码测量模型中并不是直接测量稀疏信号X本身, 而是将信号投影到一组测量矩阵Φ上而得到测量值y。即,用一个与变换矩阵不相关的MxN(M<<N)测量矩阵Φ对信号x进行线性投影,得到线性测量值y: y=Φx ;

           测量值y是一个M维向量,这样使测量对象从N维降为M维。测量矩阵的设计要求信号从x转换为y的过程中,所测量到的K个测量值不会破坏原始信号的信息,以保证信号可以精确重构。

           由于信号x是是可稀疏表示的: x=Ψs,上式可以表示为下式:

       y=Φx=ΦΨs=Θs

           其中Φ是一个MxN矩阵。上式中,方程的个数远小于未知数的个数,方程无确定解,无法重构信号。但是,由于信号是K稀疏,若上式中的Φ满足有限等距性质(Restricted Isometry Property,简称RIP),则K个系数就能够从M个测量值准确重构(得到一个最优解)。RIP性质的等价条件是测量矩阵Φ和稀疏基Ψ不相关。

            如果稀疏基和观测基不相关,则很大程度上保证了RIP性。CandeS和Tao等证明:独立同分布的高斯随机测量矩阵可以成为普适的压缩感知测量矩阵。则一般用随机高斯矩阵作为观测矩阵。目前常用的测量矩阵还有随机贝努利矩阵、部分正交矩阵、托普利兹和循环矩阵和稀疏随机矩阵等,这里不一一列举了。

     

    3、信号的重构算法

          当矩阵Φ满足RIP准则时。压缩感知理论能够通过对上式的逆问题先求解稀疏系数s,然后将稀疏度为K的信号x从M维的测量投影值y中正确地恢复出来。解码的最直接方法是通过l0范数(0-范数,也就是向量yˆ中非零元素的个数)下求解的最优化问题:

     

          从而得到稀疏系数s的估计s’。则原信号x’ = Ψs’。由于上式的求解是个NP难问题(在多项式时间内难以求解,甚至无法验证解的可靠性)。L1最小范数下在一定条件下和L0最小范数具有等价性,可得到相同的解。那么上式转化为L1最小范数下的最优化问题:

     

           L1范数最小化是通过用L1范数来近似0范数,取1而不取1/2,2/3或者其他值,是因为1范数最小化是凸优化问题,可以将求解过程转化成有一个线性规划问题。L1最小范数下最优化问题又称为基追踪(BP),其常用实现算法有:内点法和梯度投影法。内点法速度慢,但得到的结果十分准确:而梯度投影法速度快,但没有内点法得到的结果准确 。

           目前,压缩感知的重构算法主要分为两大类:

    (1)贪婪算法,它是通过选择合适的原子并经过一系列的逐步递增的方法实现信号矢量的逼近,此类算法主要包括匹配跟踪算法、正交匹配追踪算法、补空间匹配追踪算法等。

    (2)凸优化算法,它是把0范数放宽到1范数通过线性规划求解的,此类算法主要包括梯度投影法、基追踪法、最小角度回归法等。

            凸优化算法比贪婪算法所求的解更加精确,但是需要更高的计算复杂度。

            一般的自然信号x本身并不是稀疏的,需要在某种稀疏基上进行稀疏表示,xs,Ψ为稀疏基矩阵,s为稀疏系数(s只有K个是非零值(K<<N)。

          压缩感知方程为yx=ΦΨss

    展开全文
    wang_yonghua 2019-08-04 16:36:30
  • 2.03MB weixin_38743968 2019-09-20 10:55:42
  • qq_45070929 2020-07-23 23:03:58
  • hust_hongxiu 2019-08-15 19:37:30
  • 106KB weixin_38513565 2021-04-04 19:52:26
  • weixin_41923961 2018-09-18 20:07:17
  • liboxiu 2019-01-21 17:15:11
  • asdfg6541 2019-12-19 22:06:22
  • AHAO66 2019-06-12 09:55:54
  • yueluoxiaoqingqing 2018-12-14 14:32:42
  • wudaoshihun 2018-06-08 16:46:03
  • chichuhe 2017-12-28 21:34:56
  • yuechuxuan 2018-10-16 11:15:00
  • kahncc 2018-11-15 04:05:02
  • weixin_40657064 2019-03-27 16:52:14
  • EbowTang 2016-08-01 17:31:38
  • weixin_45585364 2020-02-28 17:10:00
  • qq_42793029 2019-06-13 16:14:40
  • weixin_42845306 2021-07-16 10:10:36
  • qq_36300579 2019-04-13 23:51:54
  • study_000 2016-04-02 21:11:47
  • rOokieMonkey 2017-08-03 10:23:11

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 22,576
精华内容 9,030
关键字:

压缩感知定义