精华内容
下载资源
问答
  • 柔性互联配电网是电网目前一个热门的重点研究方向,潮流是分析电力系统稳定的一个重要工具,该方法是用交替迭代法计算混合交直流潮流
  • 为了降低FMT重建的病态性和提升大规模数据集下的重建效率,结合对偶坐标下降(DCA)和交替方向乘子(ADMM)提出了一种改进的随机变量的交替方向乘子重建优化方法。在原始ADMM方法的基础上,增加了一个随机更新规则...
  • 坐标下降属于一种非梯度优化的方法,它在每步迭代中沿一个坐标的方向进行线性搜索(线性搜索是不需要求导数的),通过循环使用不同的坐标方法来达到目标函数的局部极小值。 假设目标函数是求解的极小值,其中是一...

    坐标下降法属于一种非梯度优化的方法,它在每步迭代中沿一个坐标的方向进行线性搜索(线性搜索是不需要求导数的),通过循环使用不同的坐标方法来达到目标函数的局部极小值

    假设目标函数是求解f(x)的极小值,其中x=(x_1,x_2,\ldots,x_n)是一个n维的向量,我们从初始点x^0开始(x^0是我们猜想的一个初值)对k进行循环:

    相当于每次迭代都只是更新x的一个维度,即把该维度当做变量,剩下的n-1个维度当作常量,通过最小化f(x)来找到该维度对应的新的值。坐标下降法就是通过迭代地构造序列x^0,x^1,x^2,\ldots来求解问题,即最终点收敛到期望的局部极小值点。通过上述操作,显然有:

    流程总结:

    1.  首先,我们把x向量随机取一个初值。记为x^0,上面的括号里面的数字代表我们迭代的轮数,当前初始轮数为0。
    2.  对于第k轮的迭代。我们从x^k_1开始,到x^k_n为止,依次求x_i^{k}x_i^{k}的计算表达式如上文所描述。
    3. 检查x^k向量和x^{k-1}向量在各个维度上的变化情况,如果在所有维度上变化都足够小,那么x^k即为最终结果,否则转入第二步,继续第k+1轮的迭代。

    坐标轴下降法的求极值过程,可以和梯度下降做一个比较:

    1. 坐标轴下降法在每次迭代中在当前点处沿一个坐标方向进行一维搜索 ,固定其他的坐标方向,找到一个函数的局部极小值。而梯度下降总是沿着梯度的负方向求函数的局部最小值。
    2. 坐标轴下降优化方法是一种非梯度优化算法。在整个过程中依次循环使用不同的坐标方向进行迭代,一个周期的一维搜索迭代过程相当于一个梯度下降的迭代。
    3. 梯度下降是利用目标函数的导数来确定搜索方向的,该梯度方向可能不与任何坐标轴平行。而坐标轴下降法法是利用当前坐标方向进行搜索,不需要求目标函数的导数,只按照某一坐标方向进行搜索最小值。
    4. 两者都是迭代方法,且每一轮迭代,都需要O(mn)的计算量(m为样本数,n为系数向量的维度)

    参考文章:

    Lasso回归算法: 坐标轴下降法与最小角回归法小结

    机器学习笔记——简述坐标下降法

    坐标下降法(Coordinate descent)

    【机器学习】坐标下降法(Coordinate descent)

     

    ADMM(交替方向乘子法)

    作者:大大大的v
    链接:https://www.zhihu.com/question/36566112/answer/118715721
    来源:知乎
    著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
     

    1) 优化问题是什么:

    最常见的优化问题长这样(公式1):

    min_x\quad f(x)\\

    其中 x 是优化变量,也就是可以改变的数值,通过调节 x 的大小,使得目标函数 f(x) 的数值达到最小。

    像(1)式那样,只有函数,对于变量 x 没有要求的话,其实是最简单的一类优化问题:无约束优化问题(我们只考虑凸问题的情况下,如果你不知道什么是凸问题的话,没关系,那不重要,只要记住越凸越好=凸=)。

    实际上我们对于优化变量 x 可能会有很多要求:

    x 要满足什么集合啦, 什么等式约束,不等式约束啦巴拉巴拉,这就好比我们希望通过学习升级打怪成为高知女性就可以吊金龟婿一样,这里优化变量 x 暗指学历,函数 f(x) 对应的是一个评分,也就是优质金龟婿不愿意跟你处对象的评分(因为是要最小化),金龟婿肤白貌美大长腿,那我小学学历肯定是不够的,初中文凭貌似也不太够?所以我学啊学,学啊学,以为学历越高越好,结果好不容易读了博,回头一看,好嘞原来男神对另一半学历是有要求的(也就是优化里所说的约束):高中< x <=硕士。博士不做女人啦,这大概就是基于学历的一个优化问题→_→

    等式约束: subject. to  \quad Ax=b

    不等式约束: subject. to \quad Ax\leqslant b

    所以一个等式约束的优化问题长这样(公式2):

    min_x\quad f(x)\\sub.to \quad Ax=b

     

    2)ADMM解决什么优化问题:

    min_{x,z}\quad f(x)+g(z)\\sub.to\quad Ax+Bz=c

    也就意味着ADMM通常解决的是等式约束的优化问题,而且这个优化问题还有两个优化变量 xz

    回到刚刚找男朋友的问题上来,如果之前我们只考量学历因素 x 的话,现在我们还要考量颜值因素 z!而且这两个变量之间还是有等式关系的!(至于这个关系。。。大概就是那个什么学历越高,颜值就越。。。=凸=,荒谬,荒谬至极!)

    事实上分布式中的一致性优化问题(consensus),分享问题(sharing problem)等等都很好写成这样的形式,因为每个节点的变量还要跟周围节点变量产生关联,但真正用ADMM的原因可能还是因为ADMM又快又好用吧。。。

     

    3)解决优化问题的方法:

    方法中与ADMM最为相关的大概就是原对偶方法中的增广拉格朗日法(ALM)。

    对偶方法:把公式2中的minimize问题与约束条件sub to通过一个对偶变量 \lambda 耦合在一起,形成一个叫做Lagrange函数的东西:

    L(x,\lambda) = f(x)+\lambda^T(Ax-b)\\

    原来带约束求解 min_x f(x) ,现在求解对偶问题 \max_{\lambda}\min_{x}L(x,\lambda) ,两个问题的最优解等价(原问题凸的情况下。为什么?公式好多,我再想想(查查)有没有什么直观的解释),而且现在没了约束,岂不美哉(❁´◡`❁)*✲゚*

    方法是对偶上升法:

    step1:\ \ \ \ \ \ x^{k+1}=\arg\min_x \ L(x,\lambda^k)\\ step2: \ \ \ \lambda^{k+1} = \lambda^k+\rho(Ax^{k+1}-b)

    对偶上升法其实很好理解,它把 \max_{\lambda}\min_{x}L(x,\lambda) ,也就是 \max_{\lambda}(\min_{x}L(x,\lambda)) 拆成了两步:

    第一步是固定对偶变量 \lambda ,求解\min_xL(x,\lambda)

    第二步固定住变量 x ,像众所周知的梯度下降法那样操作,只不过这里是arg max 问题所以变成了上升法。

     

    后来有人嫌弃这个Lagrange函数还不够凸,又对约束增加一个惩罚项,变成增广拉格朗日函数

    L(x,\lambda) = f(x)+\lambda^T(Ax-b)+\frac{\rho}{2}\|Ax-b\|^2\\

    这样就迈向更凸,算法也更强啦~

     

    4)ADMM的流程:

    ADMM的想法跟上面的思路就很一致啦,作为一个primal-dual原对偶方法,首先,它要有个对偶函数,也就是增广拉格朗日函数:

    L(x,z,\lambda)=f(x)+g(z)+\lambda^T(Ax+Bz-c)+\frac{\rho}{2}\|Ax+Bz-c\|^2

    然后,它像对偶上升法一样分别固定另外两个变量,更新其中一个变量:(也就是其名:交替方向)

    step1:\ \ \ \ \ \ \  \  x^{k+1}=\arg\min_x \ L(x,z^{k},\lambda^k)\\  step2:\ \ \ \ \  z^{k+1}=\arg\min_z \ L(x^{k+1},z,\lambda^k)\\  step3: \lambda^{k+1} = \lambda^k+\rho(Ax^{k+1}+Bz^{k+1}-c)

    重复直到不怎么变化了,也就是收敛了。。。

    至于怎么求解 \arg\min L ,因为无约束,梯度下降法啊,牛顿法啊等等都可以~其实就是大循环里嵌套的小循环,step1~3是大循环,求解里面的 \arg\min L 是小循环。

     

    5)其他一些杂七杂八的话:

    ADMM相当于把一个大的问题分成了两个子问题,缩小了问题的规模,分而治之(?)

    实际上有些算法用ADMM的思路,你看从ALM到ADMM相当于增加一个变量z,增加一个step就大大提升了算法性能,如果我再增加一个变量一个step呢~?但有工作指出理论上只有两个block的ADMM能够保证收敛(忘记在哪里看到的,不对的话,我就把这句话删掉!)

    转载自https://www.zhihu.com/question/36566112/answer/118715721

     

    展开全文
  • 在该方法中,表征器件全矢量特性的偏振耦合项被引入光束传播方程,并使用新型的交替方向隐式进行高效处理。数值模拟的结果表明,相比于传统的迭代方法,该方法在保持较高精度的同时,计算效率有了显著的提高。
  • 煤层气开采过程中通常采用...交替方向格式可以把二维问题转化成一维问题,对x,y两个方向的迭代矩阵均为三对角矩阵,结构相同,易于编程计算。所建立的差分格式具有计算量小,稳定性好等优点,数值试验的结果表明效果良好。
  • 模式搜索每一次迭代都是交替进行横向移动和模式移动。轴向移动的目的是探索有利的下降方向,而模式移动的目的则是沿着有利方向加速移动。在几何上是寻找具有较小函数值的“山谷”,力图使迭代产生的序列沿“山谷”...

    一、基本概念
    模式搜索法每一次迭代都是交替进行横向移动和模式移动。轴向移动的目的是探索有利的下降方向,而模式移动的目的则是沿着有利方向加速移动。在几何上是寻找具有较小函数值的“山谷”,力图使迭代产生的序列沿“山谷”逼近极小值点。

    clear all
    clc
    fun = @psobj;
    options = optimoptions('patternsearch','Display','iter','PlotFcn',@psplotbestf);    
    x0 = [0,0];
    A = [];
    b = [];
    Aeq = [];
    beq = [];
    lb = [];
    ub = [];
    nonlcon = [];
    x = patternsearch(fun,x0,A,b,Aeq,beq,lb,ub,nonlcon,options)
    
    function y = psobj(x)
    
    y = exp(-x(1)^2-2*x(2)^2)*(1-5*x(1) -3*x(2) + 9*x(1)*cos(x(2)));
    

    结果
    Iter f-count f(x) MeshSize Method
    0 1 1 1
    1 3 -0.270671 2 Successful Poll
    2 7 -0.270671 1 Refine Mesh
    3 11 -0.270671 0.5 Refine Mesh
    4 15 -0.303265 1 Successful Poll
    5 18 -0.758251 2 Successful Poll
    6 22 -0.758251 1 Refine Mesh
    7 26 -0.758251 0.5 Refine Mesh
    8 27 -0.9207 1 Successful Poll
    9 31 -0.9207 0.5 Refine Mesh
    10 35 -0.9207 0.25 Refine Mesh
    11 38 -0.924 0.5 Successful Poll
    12 42 -1.13957 1 Successful Poll
    13 46 -1.13957 0.5 Refine Mesh
    14 50 -1.13957 0.25 Refine Mesh
    15 52 -1.27727 0.5 Successful Poll
    16 56 -1.27727 0.25 Refine Mesh
    17 60 -1.27727 0.125 Refine Mesh
    18 64 -1.28251 0.25 Successful Poll
    19 68 -1.28251 0.125 Refine Mesh
    20 72 -1.28251 0.0625 Refine Mesh
    21 74 -1.2981 0.125 Successful Poll
    22 78 -1.2981 0.0625 Refine Mesh
    23 82 -1.2981 0.03125 Refine Mesh
    24 85 -1.29824 0.0625 Successful Poll
    25 89 -1.29824 0.03125 Refine Mesh
    26 93 -1.29824 0.01563 Refine Mesh
    27 94 -1.29886 0.03125 Successful Poll
    28 98 -1.29886 0.01563 Refine Mesh
    29 102 -1.29904 0.03125 Successful Poll
    30 106 -1.29904 0.01563 Refine Mesh

    Iter f-count f(x) MeshSize Method
    31 110 -1.29904 0.007813 Refine Mesh
    32 112 -1.29923 0.01563 Successful Poll
    33 116 -1.29923 0.007813 Refine Mesh
    34 120 -1.29923 0.003906 Refine Mesh
    35 123 -1.29928 0.007813 Successful Poll
    36 127 -1.29928 0.003906 Refine Mesh
    37 131 -1.29928 0.007813 Successful Poll
    38 135 -1.29928 0.003906 Refine Mesh
    39 139 -1.29928 0.001953 Refine Mesh
    40 141 -1.2993 0.003906 Successful Poll
    41 145 -1.2993 0.001953 Refine Mesh
    42 149 -1.2993 0.0009766 Refine Mesh
    43 152 -1.2993 0.001953 Successful Poll
    44 156 -1.2993 0.0009766 Refine Mesh
    45 160 -1.2993 0.0004883 Refine Mesh
    46 161 -1.2993 0.0009766 Successful Poll
    47 165 -1.2993 0.0004883 Refine Mesh
    48 169 -1.2993 0.0009766 Successful Poll
    49 173 -1.2993 0.0004883 Refine Mesh
    50 176 -1.2993 0.0009766 Successful Poll
    51 180 -1.2993 0.0004883 Refine Mesh
    52 184 -1.2993 0.0002441 Refine Mesh
    53 185 -1.2993 0.0004883 Successful Poll
    54 189 -1.2993 0.0002441 Refine Mesh
    55 191 -1.2993 0.0004883 Successful Poll
    56 195 -1.2993 0.0002441 Refine Mesh
    57 199 -1.2993 0.0001221 Refine Mesh
    58 203 -1.2993 0.0002441 Successful Poll
    59 207 -1.2993 0.0001221 Refine Mesh
    60 210 -1.2993 0.0002441 Successful Poll

    Iter f-count f(x) MeshSize Method
    61 214 -1.2993 0.0001221 Refine Mesh
    62 218 -1.2993 6.104e-05 Refine Mesh
    63 219 -1.2993 0.0001221 Successful Poll
    64 223 -1.2993 6.104e-05 Refine Mesh
    65 227 -1.2993 3.052e-05 Refine Mesh
    66 231 -1.2993 1.526e-05 Refine Mesh
    67 235 -1.2993 3.052e-05 Successful Poll
    68 239 -1.2993 1.526e-05 Refine Mesh
    69 242 -1.2993 3.052e-05 Successful Poll
    70 246 -1.2993 1.526e-05 Refine Mesh
    71 250 -1.2993 7.629e-06 Refine Mesh
    72 251 -1.2993 1.526e-05 Successful Poll
    73 255 -1.2993 7.629e-06 Refine Mesh
    74 259 -1.2993 3.815e-06 Refine Mesh
    75 263 -1.2993 1.907e-06 Refine Mesh
    76 265 -1.2993 3.815e-06 Successful Poll
    77 269 -1.2993 1.907e-06 Refine Mesh
    78 272 -1.2993 3.815e-06 Successful Poll
    79 276 -1.2993 1.907e-06 Refine Mesh
    80 280 -1.2993 9.537e-07 Refine Mesh
    Optimization terminated: mesh size less than options.MeshTolerance.

    x =

    -0.7703 0.1774
    在这里插入图片描述

    展开全文
  • 本文首发于公众微信号-AI研究订阅号,来源东北大学模式识别研究生课程《最优化》个人学习笔记。   步长加速是由Hooke和...前者是为了寻找当前迭代点的下降方向,而后者则是沿着这个有利的方向寻求新的迭代点。 ...

    最优化方法与理论系统学习笔记

    本系列所有文章来自东北大学张京老师的最优化方法与理论课程学习笔记,系列如下:
    线性规划 (一) 线性规划的基本形式及各种概念
    线性规划 (二) 单纯形法
    无约束最优化(一) 最速下降法、Newton法、修正Newton法
    无约束最优化(二) 共轭方向法与共轭梯度法
    无约束最优化(三) 拟Newton法
    无约束最优化(四) 步长加速法
    无约束最优化(五) 最小二乘法问题的解法
    约束最优化方法 (一) 最优性条件
    约束最优化方法 (二) Zoutendijk容许方向法
    约束最优化方法 (三) 外部罚函数法
    约束最优化方法 (四) 乘子法

      步长加速法是由Hooke和Jeeves(1961年)给出的一种直接方法。对于变量数目较少的无约束极小化问题,这是一个程序简单又比较有效的方法。

    基本思想

      步长加速法主要由交替进行的“探测搜索”和“模式移动”组成。前者是为了寻找当前迭代点的下降方向,而后者则是沿着这个有利的方向寻求新的迭代点。

      给出初始点x0x_{0},以它作为探测搜索的出发点(称为参考点,用rr表示,即r=x0r=x_{0}),在其周围寻找比它更好的点bb(称为基点),即f(b)<f(r)f(b) < f(r),以得到下降方向 brb-r(称为模式)。然后从bb出发沿模式brb-r做直线搜索(称为模式移动)。r~=b+α(br)\tilde {r} = b + \alpha (b-r)r~\tilde {r}是从bb出发,沿方向brb-r移动α\alpha个单位而得,其中α>0\alpha > 0(一般取α=1\alpha = 1或用直线搜索技术来确定), 以获得新的参考点(新的迭代点)。然后再开始探测搜索,模式移动。交替进行的“探测搜索”和“模式移动”将使得迭代点逐渐地向极小点靠近。

    在这里插入图片描述

    探测搜索

    已知:目标函数f(x)f(x),步长向量s=[s1,s2,sn]Ts=\left [ s_{1}, s_{2}, ···,s_{n} \right ]^{T},参考点r=[r1,r2,rn]Tr=\left [ r_{1}, r_{2}, ···,r_{n} \right ]^{T}

    1. 计算fr=f(r)f_{r}=f(r);置b=r,fb=frb=r, f_{b}=f_{r}

    2. 依次沿第i=1,2,ni=1,2,···,n个坐标轴方向作直线搜索:计算f1=f(b+siei)f_{1}=f(b+s_{i}e_{i})f2=f(bsiei)f_{2}=f(b-s_{i}e_{i})。以下三种情况必居其一:

      i) 若f1<fbf_{1} < f_{b},则置b=b+sieib=b+s_{i}e_{i}fb=f1f_{b}=f_{1}

      ii) 若f2<fbf1f_{2} < f_{b} \leq f_{1},则置b=bsieib=b-s_{i}e_{i}fb=f2f_{b}=f_{2}

      iii) 若f1fbf_{1} \geqslant f_{b}f2f1f_{2} \geqslant f_{1},则置bbfbf_{b}不变;

    依次对i=1,2,ni=1,2,···,n计算后,最终的bb是从rr出发以ss为步长向量探测搜索的终点。当f(b)<f(r)f(b) < f(r)时,探测搜索称为成功,此时必有brb \neq r,即得到模式brb-r;否则,探测搜索称为失败,此时未得到模式。

    步长加速法

    已知:目标函数f(x)f(x),步长收缩系数的终止限ε\varepsilon

    1. 选定初始点x0x_{0},初始步长量s0s_{0},置r=x0r=x_{0}b0=x0b_{0}=x_{0}c=1c = 1w=0.5w=0.5(或0.1)。
    2. s=cs0s = c s_{0}
    3. 在点rr处,以ss为步长向量按探测搜索算法做探测搜索得bb
    4. fb<f(r)f_{b} < f(r),则转5;否则,转8。
    5. 做模式移动r=2bb0r=2b-b_{0},并置b0=bb_{0}=bf0=fbf_{0}=f_{b}
    6. 在点rr处,以ss为步长向量按算法按探测搜索算法做探测搜索得bb
    7. f(b)<f(b0)f(b) < f(b_{0}),则转5;否者,置r=b0r=b_{0},转3。
    8. cεc \leqslant \varepsilon则输出rr,停止计算;否则,置c=wcc=wc,转2。

    在这里插入图片描述

      注意:算法中的模式为bb0b-b_{0}。当由3产生时,模式既为brb-r;但当由6产生时,模式才为bb0b-b_{0}这是加速模式。

    在这里插入图片描述
      在迭代开始时,基点和参考点重合,并都在初始处,经过探测搜索,得到新的基点,然后再经过模式移动,得到新的参考点,再探测,再移动,探测搜索与模式移动交替进行下去,迭代点就将逐渐地向极小点靠近。

      I型探测搜索:出发点既是参考点,又是基点,目的是在基点周围构造一个模式。II型探测搜索:出发点单纯是参考点,目的是判别上次的模式移动是否成功,从而能否作加速移动。

    我的微信公众号名称:深度学习与先进智能决策
    微信公众号ID:MultiAgent1024
    公众号介绍:主要研究分享深度学习、机器博弈、强化学习等相关内容!期待您的关注,欢迎一起学习交流进步!

    展开全文
  • 高阶全变差图像复原模型的FP-ADI耦合数值算法,张奕,,本文提出了一种新的结合固定点迭代法(lagged diffusivity fixed point iterative,FP)和交替方向法(alternating directional iterative,ADI)的基于高阶全�
  • 二维区域的偏微分方程,当使用隐式差分方法格式求解时,形成的五对角方程组如果用高斯赛德尔迭代法、线松弛迭代等方法求解,工作量巨大。为了减小计算工作量提出了交替方向隐式方法。作为专业的前处理软件ICEMCFD为...
  • 相比于传统同步并行计算策略, 在异步并行计算框架下, 针对最常用的总变分(TV)最小化重建模型, 通过将其转化为不动点迭代问题, 并利用异步交替方向法(ADM)进行求解, 推导出基于TV最小化模型的异步ADM迭代重建算法, 即...
  • 由于水体及水中的悬浮粒子对光的吸收和...为进一步提高计算效率,引入交替方向乘子(ADMM)对所提出的模型进行交替优化迭代求解。实验结果表明,该算法能有效地去除水雾,抑制水下图像的噪声,提高图像的对比度和清晰度。
  • 在机器学习、图像处理等研究领域,矩阵补全主要...为降低计算复杂度,本文将矩阵三分解方法应用到鲁棒矩阵补全问题中,并应用交替方向乘子对其进行求解。最后利用人脸识别的实际数据,通过数值实验验证了方法的有效性。
  • 对偶上升(拉格朗日) 增广拉格朗日方法 区别: 对偶上升:梯度上升的步长是针对每一次迭代都不固定。 增广拉格朗日方法:不过梯度上升的步长改成了固定的...类似于增广拉格朗日的方法:交替方向乘子(ADMM) ...
    1. 对偶上升(拉格朗日)
    2. 增广拉格朗日方法

    区别:
    对偶上升:梯度上升的步长是针对每一次迭代都不固定。
    增广拉格朗日方法:不过梯度上升的步长改成了固定的参数,而且罚项的系数也和这个步长有关。(一般取1)

    在这里插入图片描述
    增广拉格朗日的鲁棒性更好,容易收敛。较为适合等式约束,对于不等式约束需要对问题进行变形,得到中间变量,然后对中间变量讨论求解。

    类似于增广拉格朗日的方法:交替方向乘子法(ADMM)

    展开全文
  • 为克服BLT重建的高不适定性,提出了基于非凸L1-2正则化的重建方法,采用凸差分算法来解决非凸泛函最小化问题,在每一步迭代中采用带自适应惩罚项的交替方向乘子高效求解。为评估该方法的有效性和稳健性,设计了单...
  • 为了提高求解二次规划逆问题的速度,提出了针对求解该问题的非单调信赖域...数值实验结果表明,该算法的迭代次数比牛顿算法、Gauss回代交替方向法少,运行速度快。因此,对于大规模二次规划逆问题,该算法更加有效。
  • 进而采用交替方向乘子(ADMM)迭代求解各区域子问题,实现各区域间协同。所提方法无需引入整数变量,使得所求解问题均为凸优化问题,能够保证ADMM算法的收敛性,并具有较快的求解速度。最后,通过算例仿真验证了所提...
  • 最后,采用交替方向乘子(ADMM)优化算法,以较少的迭代次数分别求解出滤波器函数、空间正则权重和时间正则化参数。在OTB-2015数据集上进行实验,结果表明本文算法的跟踪性能优于其他对比算法,其中距离精度和成功率分别...
  • 采用一种凸差分算法来解决非凸泛函最小化问题, 在每一步凸差分子迭代中采用一种带自适应惩罚项的交替方向乘子进行高效求解。设计了单目标数字鼠仿体、双目标数字鼠仿体以及真实在体老鼠实验验证提出算法的有效性和...
  • 从水平及垂直方向上提取图像的灰度波动曲线,并迭代搜索每条曲线上满足给定波动幅度阈值的较大尺度波峰点和波谷点;在每对交替波峰点或波谷点之间求取浮动阈值来划定目标和背景像素的归属;对两个方向上取得的阈值...
  • 优化算法(一)模式搜索算法

    千次阅读 2019-09-12 08:47:17
    模式搜索是对当前搜索点按固定模式和步长探索移动,以寻求可行下降方向迭代过程只要找到相对于当前点的改善点,则步长递增,并从该点开始进入下一次迭代,否则步长递减,在当前点继续搜索。 算法包含两种交替...
  • 第6章通过最小化增广多维尺度矩阵的秩,利用交替方向乘子求解该矩阵及其辅助参数,对获得的低秩矩阵进行特征值分解从而求得椭圆参数。第7章通过选择较好的椭圆点来表示椭圆参数向量,并采用误差的绝对值之和降低野...
  • Visual C++ 常用数值算法集

    热门讨论 2012-03-19 11:57:59
    1.12松弛迭代法 第2章 插值 2.1拉格朗日插值 2.2有理函数插值 2.3三次样条插值 2.4有序表的检索法 2.5插值多项式 2.6二元拉格朗日插值 2.7双三次样条插值 第3章 数值积分 3.1梯形求积法 3.2辛普森(Simpson...
  • 数学算法原书光盘 本书目录列表: 第1章线性代数方程组的解法 1.全主元高斯约当消去 2.LU分解 3.追赶 4.五对角线性方程组解法 5.线性方程组解的迭代改善 6.范德蒙方程组解法 ...2.交替方向隐式方法
  • 数学算法原书光盘

    2004-09-02 09:58:57
    3、本书目录列表: 第1章线性代数方程组的解法 1.... 2.LU分解法 3.... 4.... 5.... 6.... 7.... 8.... 9.... 10.... 11.... 12.松弛迭代法 ... 1.... 2.... 3.... 4.... 5.... 6.... 7.... 1.... 2.... 3.... 4.... 5.... 6.... 1.... 2.... 3.... 4.... 5.... 6....交替方向隐式方法

空空如也

空空如也

1 2
收藏数 24
精华内容 9
关键字:

交替方向迭代法