精华内容
下载资源
问答
  • 变尺度法matlab仿真

    2012-06-15 16:30:00
    变尺度法MATLAB仿真,代码后面有详细说明,每一步都有注释。变尺度法是求函数极小值的一种方法
  • 最优化实验之变尺度法 double f (double coe[], double x[])//返回函数值待求函数的函数值 { return coe[0]*pow(x[0],2)+coe[1]*pow(x[1],2)+coe[2]*x[0]*x[1]+coe[3]*x[0]+coe[4]*x[1]+coe[5]; } void grads ...
  • 非线性规划(一):定义与数值优化方法(梯度法、牛顿法、拟牛顿法、变尺度法) 非线性规划(二): Matlab 求解约束极值问题 目录 1 非线性规划 1.1 非线性规划的实例与定义 非线性规划的构成要素 1.2 线性规划与...

    1  非线性规划 

    非线性规划(一):定义与数值优化方法(梯度法、牛顿法、拟牛顿法、变尺度法)

    非线性规划(二): Matlab 求解约束极值问题


    目录

    1  非线性规划          1.1  非线性规划的实例与定义       非线性规划的构成要素  

    1.2  线性规划与非线性规划的区别             1.3  非线性规划的 Matlab 解法

    1.4  求解非线性规划的基本迭代格式  

    局部最优、整体最优的定义        求解非线性规划模型(NP)的基本迭代格式

     如何构造每一轮的搜索方向和确定适当的步长         用基本迭代格式(1)求解(NP)的一般步骤

    1.5  凸函数、凸规划 

    2  无约束问题 

    2.1  一维搜索方法              试探法

    2.1.1 Fibonacci 法         Finbonacci 法的具体步骤              

    2.1.2     0.618 法  黄金分割数        黄金分割数和 Fibonacci 分数的关系 

    2.2  二次插值法         2.3  无约束极值问题的解法

    2.3.1  解析法      2.3.1.1  梯度法(最速下降法)   最速下降法的具体步骤

    2.3.1.2    Newton 法               Newton 法的具体步骤

    2.3.1.3  变尺度法        拟牛顿法                如何构造Hesse阵的近似矩阵---拟 Newton 条件

    尺度矩阵的推导             DFP 变尺度法的计算步骤总结  

    Powell 方法的具体步骤        2.4  Matlab 求无约束极值问题


    1.1  非线性规划的实例与定义 

    如果目标函数或约束条件中包含非线性函数,就称这种规划问题为非线性规划问 题。一般说来,解非线性规划要比解线性规划问题困难得多。而且,也不象线性规划有 单纯形法这一通用方法,非线性规划目前还没有适于各种问题的一般算法,各个方法都 有自己特定的适用范围。 下面通过实例归纳出非线性规划数学模型的一般形式,介绍有关非线性规划的基本概念。

    例一  投资决策问题

     非线性规划的构成要素

    对于一个实际问题,在把它归结成非线性规划问题时,一般要注意如下几点:

    (i)确定供选方案:首先要收集同问题有关的资料和数据,在全面熟悉问题的基 础上,确认什么是问题的可供选择的方案,并用一组变量来表示它们。

    (ii)提出追求目标:经过资料分析,根据实际需要和可能,提出要追求极小化 或极大化的目标。并且,运用各种科学和技术原理,把它表示成数学关系式。

    (iii)给出价值标准:在提出要追求的目标之后,要确立所考虑目标的“好”或 “坏”的价值标准,并用某种数量形式来描述它。

    (iv)寻求限制条件:由于所追求的目标一般都要在一定的条件下取得极小化或 极大化效果,因此还需要寻找出问题的所有限制条件,这些条件通常用变量之间的一些 不等式或等式来表示。

    1.2  线性规划与非线性规划的区别

    如果线性规划的最优解存在,其最优解只能在其可行域的边界上达到(特别是可行 域的顶点上达到);而非线性规划的最优解(如果最优解存在)则可能在其可行域的任 意一点达到。

    1.3  非线性规划的 Matlab 解法

    Matlab 中非线性规划的数学模型写成以下形式 

    Matlab 中的命令是

    X=FMINCON(FUN,X0,A,B,Aeq,Beq,LB,UB,NONLCON,OPTIONS) 

    解  (i)编写 M 文件 fun1.m 定义目标函数 

    function f=fun1(x); 
    f=sum(x.^2)+8; 

    (ii)编写M文件fun2.m定义非线性约束条件 

    function [g,h]=fun2(x); 
    g=[-x(1)^2+x(2)-x(3)^2 
        x(1)+x(2)^2+x(3)^3-20];  %非线性不等式约束 
    h=[-x(1)-x(2)^2+2 
       x(2)+2*x(3)^2-3]; %非线性等式约束 

    (iii)编写主程序文件 example2.m 如下: 

    options=optimset('largescale','off'); 
    [x,y]=fmincon('fun1',rand(3,1),[],[],[],[],zeros(3,1),[], ... 
    'fun2', options) 

    1.4  求解非线性规划的基本迭代格式 

    局部最优、整体最优的定义

     求解非线性规划模型(NP)的基本迭代格式

     如何构造每一轮的搜索方向和确定适当的步长

    用基本迭代格式(1)求解(NP)的一般步骤

    1.5  凸函数、凸规划 

    可以证明,凸规划的可行域为凸集,其局部最优解即为全局最优解,而且其最优 解的集合形成一个凸集。当凸规划的目标函数 )f\left ( x \right ) 为严格凸函数时,其最优解必定唯 一(假定最优解存在)。由此可见,凸规划是一类比较简单而又具有重要理论意义的非线性规划.

    2  无约束问题 

    2.1  一维搜索方法

    当用迭代法求函数的极小点时,常常用到一维搜索,即沿某一已知方向求目标函数的极小点。一维搜索的方法很多,常用的有: (1)试探法(“成功—失败”,斐波那契法, 0.618 法等) ;

    (2)插值法(抛物线插值法,三次插值法等);

    (3)微积分中的求根法(切 线法,二分法等)。 

    试探法

    应该按照怎样的规则来选取探索点,使给定的单峰区间的长度能尽快地缩短? 

    2.1.1 Fibonacci 法 

     Finbonacci 法的具体步骤

    由上述分析可知,斐波那契法使用对称搜索的方法,逐步缩短所考察的区间,它能 以尽量少的函数求值次数,达到预定的某一缩短率。 

    2.1.2     0.618 法 

    黄金分割数

    若  ω > 0 ,满足比例关系 

    黄金分割数和 Fibonacci 分数的关系 

    现用不变的区间缩短率 0.618,代替斐波那契法每次不同的缩短率,就得到了黄金 分割法(0.618 法)。这个方法可以看成是斐波那契法的近似,实现起来比较容易,效果 也相当好,因而易于为人们所接受。 

    2.2  二次插值法

    对极小化问题(2),当  f\left ( t \right ) 在[ a , b ]上连续时,可以考虑用多项式插值来进行一 维搜索。它的基本思想是:在搜索区间中,不断用低次(通常不超过三次)多项式来近 似目标函数,并逐步用插值多项式的极小点来逼近(2)的优解。  
     

    2.3  无约束极值问题的解法

       无约束极值问题可表述为

    求解问题(5)的迭代法大体上分为两点:一是用到函数的一阶导数或二阶导数, 称为解析法。另一是仅用到函数值,称为直接法。 

    2.3.1  解析法 

    2.3.1.1  梯度法(最速下降法) 

    最速下降法的具体步骤

    例 4  用最速下降法求解无约束非线性规划问题 

    function [f,df]=detaf(x); 
    f=x(1)^2+25*x(2)^2; 
    df=[2*x(1) 50*x(2)]; 

    (ii)编写主程序文件zuisu.m如下: 

    clc 
    x=[2;2]; 
    [f0,g]=detaf(x); 
    while norm(g)>0.000001    
        p=-g/norm(g);    
        t=1.0;f=detaf(x+t*p);    
        while f>f0       
            t=t/2;         
            f=detaf(x+t*p);   
        end 
    x=x+t*p; 
    [f0,g]=detaf(x); 
    end 
    x,f0 

    2.3.1.2    Newton 法 

    Newton 法的具体步骤

    例 5  用 Newton 法求解, 

    (ii)编写 M 文件 nwfun.m 如下: 

    function [f,df,d2f]=nwfun(x); 
    f=x(1)^4+25*x(2)^4+x(1)^2*x(2)^2; 
    df=[4*x(1)^3+2*x(1)*x(2)^2;100*x(2)^3+2*x(1)^2*x(2)]; 
    d2f=[2*x(1)^2+2*x(2)^2,4*x(1)*x(2)      
         4*x(1)*x(2),300*x(2)^2+2*x(1)^2]; 

    (III)编写主程序文件 example5.m 如下: 

    clc 
    x=[2;2]; 
    [f0,g1,g2]=nwfun(x); 
    while norm(g1)>0.00001           
        p=-inv(g2)*g1;    
        x=x+p; 
        [f0,g1,g2]=nwfun(x); 
    end 
    x, f0 

    如果目标函数是非二次函数,一般地说,用 Newton 法通过有限轮迭代并不能保证 可求得其优解。

    为了提高计算精度,我们在迭代时可以采用变步长计算上述问题,编写主程序文件 example5_2 如下: 

    clc,clear 
    x=[2;2]; 
    [f0,g1,g2]=nwfun(x); 
    while norm(g1)>0.00001          
        p=-inv(g2)*g1;p=p/norm(p);    
        t=1.0;f=nwfun(x+t*p);    
        while f>f0       
            t=t/2;f=nwfun(x+t*p);    
        end 
        x=x+t*p; 
        [f0,g1,g2]=nwfun(x); 
    end 
    x,f0 

    2.3.1.3  变尺度法

    变尺度法(Variable Metric Algorithm)是近 20 多年来发展起来的,它不仅是求解 无约束极值问题非常有效的算法,而且也已被推广用来求解约束极值问题。由于它既避 免了计算二阶导数矩阵及其求逆过程,又比梯度法的收敛速度快,特别是对高维问题具 有显著的优越性,因而使变尺度法获得了很高的声誉。下面我们就来简要地介绍一种变尺度法—DFP 法的基本原理及其计算过程。这一方法首先由 Davidon 在 1959 年提出, 后经 Fletcher 和 Powell 加以改进。 

    拟牛顿法

    如何构造Hesse阵的近似矩阵---拟 Newton 条件

    尺度矩阵的推导

     DFP 变尺度法的计算步骤总结

    2.3.2 直接法

    在无约束非线性规划方法中,遇到问题的目标函数不可导或导函数的解析式难以 表示时,人们一般需要使用直接搜索方法。同时,由于这些方法一般都比较直观和易于 理解,因而在实际应用中常为人们所采用。下面我们介绍 Powell 方法。 这个方法主要由所谓基本搜索、加速搜索和调整搜索方向三部分组成,

    Powell 方法的具体步骤 

    2.4  Matlab 求无约束极值问题

    在 Matlab 工具箱中,用于求解无约束极值问题的函数有 fminunc 和 fminsearch,用 法介绍如下。 

    Matlab 中 fminunc 的基本命令是 

    [X,FVAL]=FMINUNC(FUN,X0,OPTIONS,P1,P2, ...) 

    解:编写 M 文件 fun2.m 如下: 

    function [f,g]=fun2(x); 
    f=100*(x(2)-x(1)^2)^2+(1-x(1))^2; 
    g=[-400*x(1)*(x(2)-x(1)^2)-2*(1-x(1));200*(x(2)-x(1)^2)]; 

    编写主函数文件example6.m如下: 

    options = optimset('GradObj','on'); 
    [x,y]=fminunc('fun2',rand(1,2),options) 

    即可求得函数的极小值。 在求极值时,也可以利用二阶导数,编写 M 文件 fun3.m 如下: 

    function [f,df,d2f]=fun3(x); 
    f=100*(x(2)-x(1)^2)^2+(1-x(1))^2; 
    df=[-400*x(1)*(x(2)-x(1)^2)-2*(1-x(1));200*(x(2)-x(1)^2)]; 
    d2f=[-400*x(2)+1200*x(1)^2+2,-400*x(1)     
         -400*x(1),200]; 

    编写主函数文件example62.m如下: 

    options = optimset('GradObj','on','Hessian','on'); 
    [x,y]=fminunc('fun3',rand(1,2),options) 

    即可求得函数的极小值。 

     

    求多元函数的极值也可以使用 Matlab 的 fminsearch 命令,其使用格式为: 

    [X,FVAL,EXITFLAG,OUTPUT]=FMINSEARCH(FUN,X0,OPTIONS,P1,P2,...) 

    function f=fun4(x); 
    f=sin(x)+3; 

    编写主函数文件example7.m如下: 

    x0=2; 
    [x,y]=fminsearch(@fun4,x0) 

    即求得在初值 2 附近的极小点及极小值。 


    非线性规划(一):定义与数值优化方法(梯度法、牛顿法、拟牛顿法、变尺度法)

    非线性规划(二): Matlab 求解约束极值问题

    展开全文
  • 1.程序框图 其中E矩阵的求解公式为: ...该程序应用于多维无条件优化问题中的变尺度法 变量说明: 输入值部分 f为目标函数,对于目标函数中自由变量的个数没有要求 x为初值矩阵,要求在调用...

    1.程序框图

    在这里插入图片描述

    其中E矩阵的求解公式为:

    在这里插入图片描述

    2.MATLAB可执行程序

    function [k,x_min,f_min]= variable_metric_algorithm(f,x,exp)
    %% 程序说明
    %{
    该程序应用于多维无条件优化问题中的变尺度法
    变量说明:
        输入值部分
            f为目标函数,对于目标函数中自由变量的个数没有要求
            x为初值矩阵,要求在调用函数是必须为一行n列的形式,否则会导致后期维度出现错误
            exp为精度
        返回值部分
            k为迭代次数
            x_min为函数的局部极小值数列
            f_min为函数的局部极小值
    
    调用方法:
    clc
    clear
    syms x1 x2%所有的自由变量且必须由x1,x2,x3……表示
    x=[0,0];
    f=x1^2+x2^2-x1*x2-10*x1-4*x2+60;
    exp=0.01;
    [k,x_min,f_min]=variable_metric_algorithm(f,x,exp) 
    
    %}
    %% 确定维度
    x_size=size(x,2);
    x_i= sym(zeros(1,x_size));
    %class(x_i)
    for i=1:x_size
        syms(['x' num2str(i)]);
        x_i(1,i)=['x' num2str(i)];
    end
    %% 迭代主题
    grad_f=gradient(f,x_i);
    H=eye(x_size);
    fz_d=-subs(grad_f,x_i,x);
    fz_d=double(fz_d);
    g0=fz_d;
    k=0;
    while 1
        s=-H*g0;
        syms a
        s=s';
        f_b=subs(f,x_i,x+a.*s);
        f_bd=diff(f_b,a);
        a=solve(f_bd==0,a);
        a=double(a);
        x_1=x+a*s;
        fz_d1=-subs(grad_f,x_i,x_1);
        fz_d1=double(fz_d1);
        fz_dm1=norm(fz_d1);
        g1=fz_d1;
    if  fz_dm1<=exp
        x_min=x_1;
        f_min=subs(f,x_i,x_min);
        k=k;
        break;
    else
        if k==x_size
            fz_d=-subs(grad_f,x_i,x_1);
            fz_d=double(fz_d);
            k=0;
            H=eye(x_size);
        else
            deta_x=x_1-x;
            deta_f_d=fz_d1-fz_d;
            A=(deta_x')*(deta_x);
            sub_A=(deta_x)*deta_f_d;
            B=H*deta_f_d*(deta_f_d')*H;
            sub_B=(deta_f_d')*H*deta_f_d;
            E=A./sub_A-B./sub_B;
            H=H+E;
            k=k+1;
        end
        x=x_1;
        g0=g1;
    end
    end
    end
    
    展开全文
  • 输入多项式函数的系数矩阵及迭代精度,得到最后的函数的最小值
  • C++编写的拟牛顿的源程序,非常实用的东东哦~~
  • 变尺度方法

    2013-03-17 21:21:33
    变尺度法的例题和制作的ppt,内容丰富,值得参考
  • 最全的最优化算法包括 变尺度+牛顿+阻尼牛顿+最速下降 附有源码
  • 里面有变尺度算法,牛顿,阻尼牛顿,最速下降 是自己用c写的最优化实验程序 很久没动过c,而且学c时也不精 所以写的很粗糙,望见谅
  • 变尺度算法Matlab代码

    2010-07-16 09:45:47
    使用DFP和BFS两种方法来实现变尺度算法,此处是实现该算法的Matlab代码,修改目标函数后可以直接使用。
  • 采用变尺度混沌优化方法代替梯度下降融入BP神经网络,在优化搜索过程中不断缩小搜索空间,克服了标准BP算法易陷入局部极小的缺点,能有效地寻找到BP神经网络权值的全局最优值;此外,进一步提出变尺度混沌优化与...
  • 改进的迭代尺度法(IIS)详解

    千次阅读 2016-10-20 20:10:45
    改进的迭代尺度法

    这里写图片描述
    这里写图片描述
    这里写图片描述


    注释:
    这里的目的就是最大化两次迭代之间的差值。
    1、差值的最大值如果小于0,说明已经到了最大值,在当前位置向任何方向走,对数似然函数都会变小,我们要求的就是极大似然函数,所以已经得到最大的似然函数,此时的参数即是所求的。
    2、差值如果大于0,那么我们现在就是要最大化差值,这里我们得到了差值的下界这里写图片描述,我们可以通过不断的最大化这个下界,从而得到最大的差值,最大化这个下界这里写图片描述,首先对这里写图片描述求关于这里写图片描述的偏导数,并令偏导数为0,但是这里我们可以看出求出的偏导数
    这里写图片描述
    含有多个变量,不易同时优化。因此在这里引出了下面的方法。


    这里写图片描述
    这里写图片描述
    这里写图片描述
    这里写图片描述

    展开全文
  • 最优化方法——BGFS变尺度算法

    千次阅读 2019-04-18 22:07:29
    2、BGFS变尺度算法的计算公式 3、BGFS变尺度算法Python实现 4、结果 关于下面的部分,请看我的另一篇博客 最优化方法——最速下降,阻尼牛顿,共轭梯度 1、不精确一维搜素 1.1 Wolfe-Powell 准则 2、不...

    目录

     1、BGFS基本思想

    2、BGFS变尺度算法的计算公式 

    3、BGFS变尺度算法Python实现

    4、结果 


    关于下面的部分,请看我的另一篇博客 

    最优化方法——最速下降法,阻尼牛顿法,共轭梯度法

    1、不精确一维搜素

    1.1 Wolfe-Powell 准则 

     2、不精确一维搜索算法计算步骤

     1、BGFS基本思想

    2、BGFS变尺度算法的计算公式 

    3、BGFS变尺度算法Python实现

    '''
    wolfe powell 不精确一维搜索准则
    1、f(x_(k)) - f(x_(k+1)) >= -c_1 * lamda * inv(g_k) * s_(k)
    2、inv(g_(k+1)) * s_(k) >= c_2 * inv(g_(k)) * s_(k)
    根据计算经验,常取c_1 = 0.1, c_2 = 0.5
    0 < c_1 < c_2 < 1
    '''
    
    """
    函数 f(x)=100*(x(1)^2-x(2))^2+(x(1)-1)^2
    梯度 g(x)=(400*(x(1)^2-x(2))*x(1)+2*(1-x(1)),-200*(x(1)^2-x(2)))
    """
    from numpy import *
    import sys
    import matplotlib.pyplot as plt
    
    def object_function(xk):
        f = 100 * (xk[0, 0] ** 2 - xk[1, 0]) ** 2 + (xk[0, 0] - 1) ** 2
        return f
    
    def gradient_function(xk):
        gk = mat(
                [
                    [400 * xk[0, 0] * (xk[0, 0] ** 2 - xk[1, 0]) + 2 * (xk[0, 0] - 1)],
                    [-200 * (xk[0, 0] ** 2 - xk[1, 0])]
                ]
        )
        return gk
    
    def wolfe_powell(xk, sk):
    
        alpha = 1.0
        a = 0.0
        b = -sys.maxsize
        c_1 = 0.1
        c_2 = 0.5
        k = 0
        while k < 100:
            k += 1
            if object_function(xk) - object_function(xk + alpha * sk) >= -c_1 * alpha * gradient_function(xk).T * sk:
                #print('满足条件1')
                if (gradient_function(xk + alpha * sk)).T * sk >= c_2 * gradient_function(xk).T * sk:
                    #print('满足条件2')
                    return alpha
                else:
                    a = alpha
                    alpha = min(2 * alpha, (alpha + b) / 2)
    
            else:
                b = alpha
                alpha = 0.5 * (alpha + a)
        return alpha
    
    # BFGS变尺度算法
    def BFGS(x0, eps):
        xk = x0
        gk = gradient_function(xk)
        sigma = linalg.norm(gk)
        m = shape(x0)[0]
        HK = eye(m)  # 初始HK为二阶单位阵
    
        sk = -1 ** HK * gk
    
        step = 0
        w = zeros((2, 10 ** 3))# 保存迭代把变量xk
    
        while sigma > eps and step < 10000:
            # w[:, step] = xk
    
            step += 1
            alpha = wolfe_powell(xk, sk)
    
            x0 = xk
            xk = xk + alpha * sk
            print(alpha)
            delta_x = xk - x0
    
            g0 = gk
            gk = gradient_function(xk)
            delta_g = gk - g0
            # print('delta_x为:{}, delta_g为:{}'.format(delta_x, delta_g))
            if (delta_g.T * delta_x > 0):
                # HK = HK - (HK * delta_x * delta_x.T * HK) / (delta_x.T * HK * delta_x) + (delta_g * delta_g.T) / (delta_g.T * delta_x)
                miu = ([[1, 1], [1, 1]] + delta_g.T * HK * delta_g / (delta_x.T * delta_g))
                fenzi = miu * delta_x * delta_x.T - HK * delta_g * delta_x.T - delta_x * delta_g.T * HK
                fenmu = delta_x.T * delta_g
                HK = HK + fenzi / fenmu
    
            sk = -1 * HK * gk
            sigma = linalg.norm(delta_x)
    
            print('--The {}-th iter,sigma is {}, the result is {},object value is {:.4f}'.format(step, sigma, xk.T, object_function(xk)))
        return w
    
    if __name__ == '__main__':
        eps = 1e-5
        x0 = mat([[0.001], [0]])
    
        # 变尺度算法
        W = BFGS(x0, eps)
    
    

    4、结果 

    --The 1-th iter,sigma is 1.4129404873242466, the result is [[1.0000998 0.9990998]],object value is 0.0001
    --The 2-th iter,sigma is 0.000836649284267688, the result is [[0.99926534 0.99903935]],object value is 0.0000
    --The 3-th iter,sigma is 0.0, the result is [[0.99926534 0.99903935]],object value is 0.0000

    展开全文
  • 《实用最优化方法》上机作业,用C语言编写采用BFGS变尺度算法求解无约束优化问题。
  • 尺度空间方法

    千次阅读 2013-01-01 22:35:57
    尺度空间方法的基本思想是:在视觉信息(图像信息)处理模型中引入一个被视为尺度的参数,通过连续变化尺度参数获得不同尺度下的视觉处理信息,然后综合这些信息以深入地挖掘图像的本质特征。 定义 设多尺度分析...
  • 尺度空间

    千次阅读 2013-08-29 11:49:29
    尺度空间 想要得知图像中哪些是有意义的,必须先要明确这样一个问题:在一幅图像中,只有在一定的尺度范围内,一个物体才有意义。举一个例子,树枝这个概念,只有在几厘米到几米的距离去观察它,才能感知到它的确是...
  • SIFT尺度不变特征转换

    2018-08-22 10:52:26
    转自: 尺度不变特征变换匹配算法详 1、SIFT综述 尺度不变特征转换(Scale-invariant&nbsp;feature&nbsp;transform或SIFT)是一种电脑视觉的算法用来侦测与描述影像中的局部性特征,它在空间尺度中...
  • 关于尺度空间的理解

    千次阅读 2017-12-01 10:32:56
    通常会听到尺度变化等这类词语,看到的也总是一堆的数学公式,有时候真的不知道这到底有啥用,有啥意义,没有弄懂这些意义,当然就更不可能的理解,不可能去掌握应用它了,现在我才理解,小波变化其实也是一种尺度...
  • 通过理论证明和公式推导,研究了两种特殊情况下变尺度动态网格在仿真中的有效性,实例结果指出改变变尺度动态网格的实现过程,变尺度动态网格在以上两种特殊情况下是有效的- 结论表明改变实现过程的变尺度...
  • [CO] 无约束极值问题的解法

    千次阅读 2015-11-07 20:57:34
    华电北风吹 最后修改日期 2015/11/7无约束极值问题可以表述为 minf(X),X∈Rnmin f(X), X \in R^n 对于这类问题的求解一般要...常见的解析法有梯度下降法,共轭梯度法,变尺度法。常见的直接法有步长加速法。一、梯度
  • 多维尺度变换(multidimensional scaling, MDS)

    万次阅读 多人点赞 2017-04-16 12:08:09
    多维尺度变换(multidimensional scaling, MDS)是在低维空间去展示高维多元数据的一种可视化方法。该方法看起来类似于利用主成分得分作图,或者对两个线性判别量的得分作图。与上述方法不同的是,多维尺度变换的基本...
  • 优化问题学习笔记

    2019-11-17 10:19:14
    优化的方法 一维优化方法 外推法确定初始区间 黄金分割法 二次插值法 无约束优化方法 梯度法 牛顿法 共轭梯度法 坐标轮换法 ...变尺度法 约束优化方法 可行方向法 随机方法法 复合形法 惩罚函数法 ...
  • 尺度不变特征转换(Scale-invariant feature transform或SIFT)是一种电脑视觉的算法用来侦测与描述影像中的局部性特征,它在空间尺度中寻找极值点,并提取出其位置、尺度、旋转不变量,此算法由 David Lowe在1999...
  • 1. 图像的尺度空间 图像的尺度空间表达指的是图像在所有尺度下的描述,因为尺度空间很多处理算子与哺乳动物的视网膜和视觉皮层最外层记录的感受域剖面有着高度的相似性,所以,尺度空间理论经常与生物视觉相关联...
  • 尺度空间与图像金字塔(一)

    千次阅读 多人点赞 2019-11-20 12:14:09
    文章目录尺度空间什么是尺度空间(scale space)为什么需要尺度空间高斯核图像金字塔什么是分辨率为什么需要多分辨率多尺度和多分辨率图像金字塔高斯金字塔SIFTOctaves and ScalesBlurringAmount of blurring参考 ...
  • 运筹优化(五)--线性规划之内点

    万次阅读 2019-01-12 14:34:51
    近年来的内点算法主要有三大类: (1)投影尺度法,它是Karmarkar算法的原型。这个方法要求问题具有特殊...目前原仿射尺度法和对偶仿射尺度法虽然应用较多,但这两种方法的多项式时间复杂性还不能从理论上得到证明。 ...
  • 非线性规划(二): Matlab 求解约束极值问题

    万次阅读 多人点赞 2019-04-24 11:10:34
    非线性规划(一):定义与数值优化方法(梯度法、牛顿法、拟牛顿法、变尺度法) 非线性规划(二): Matlab 求解约束极值问题 目录 约束极值问题 1 二次规划 2 罚函数法 3 Matlab 求约束极值问题 3.1 fminbnd ...
  • 尺度不变特征变换SIFT

    千次阅读 2013-12-18 19:56:45
    尺度不变特征变换匹配算法详解 Scale Invariant Feature Transform(SIFT) Just For Fun zdd zddmail@gmail.com 对于初学者,从David G.Lowe的论文到实现,有许多鸿沟,本文帮你跨越。 1、SIFT综述 ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 16,398
精华内容 6,559
关键字:

变尺度法