精华内容
下载资源
问答
  • 决策变量
    2021-04-26 14:19:57

    yalmip一共有三种方式创建决策变量,分别为:

    sdpvar-创建实数型决策变量

    intbar-创建整数型决策变量

    binvar-创建0/1型决策变量

    sdpvar:定义象征变量。

    语法:

    x=sdpvar(n)

    x=sdpvar(n,m)

    x=sdpvar(n,m,'type')

    x=sdpvar(n,m,'type','field')

    x=sdpvar(dim1,dim2,dim3,...,dimn,'type','field')

    sdpvar x

    例子:

    定义正方形的实数对阵矩阵如下:

    P=sdpvar(n,n)% SYMMETRIC!

    若是需要定义一个对阵矩阵或是标量,上面的命令也可以通过一个参数进行简化定义:

    P=sdpvar(n)% SYMMETRIC!

    通过使用详细的注释也可定义同样的矩阵:

    P=sdpvar(n,n,'symmetric')

    定义全参数矩阵(非必须对阵)需要给定第三个参数:

    P=sdpvar(n,n,'full')

    定义一个正方形复数全参数矩阵:

    P=sdpvar(n,n,'full','complex')

    第三个和第四个参数可以简化为如下形式:

    P=sdpvar(n,n,'sy','co')

    很多用户在一开始很简单的事情上,比如定义一个对角变量,遇到困难。请记住在使用yalmip时几乎所有matlab操作符都适用于sdpvar对象。今后,用如下命令定义对角变量:

    sdpvar x y z(1,1) u(2,2) v(2,3,'full','complex')

    或是 汉克矩阵:

    X=hankel(sdpvar(n,1));

    特定情况下需要几个相同变量,通常的方式市使用循环语句实现:

    fori=1:100;

    X{i}=sdpvar(5,5);

    end

    更方便的方式是使用维度赋值了的向量(不会翻译:vector valued dimensions)

    X=sdpvar(5*ones(1,100),5*ones(1,100));

    定义一个3维变量,其中每一个面的2个维度都是对称的:

    X=sdpvar(3,3,3)

    X(:,:,1)

    Linear matrix variable 3x3 (symmetric,real,6 variables)

    定义一个4维变量,其中第一个2维的每个面都是全参数化。

    X=sdpvar(3,3,3,3,'full')

    X(:,:,1,1)

    Linear matrix variable 3x3 (full,real,9 variables)



    作者:keyliva
    链接:https://www.jianshu.com/p/558cdfd4196f
    来源:简书
    著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

    更多相关内容
  • 一种基于加权决策变量决策层的分支策略
  • 提出并研究了一类上层含约束条件且具有模糊决策变量的二层多随从线性规划模型, 利用结构元理论证明了该模型最优解等价于上层含约束条件的二层多随从线性规划模型最优解, 利用Kuhn-Tucker 方法得到了该模型最优解, 并...
  • 高斯粒子群优化决策变量的柯西突变在支持向量机参数选择中的应用
  • 如下图所示 将x_center的第i个决策变量置为预测值而其他决策变量保持不变来生成n个试验个体x_trial[i],如果x_trial [i]支配x_center,则接受第i个决策变量的预测,并将第i个决策变量分类为可预测变量,并使用基于...

    阅读论文:A Dynamic Multiobjective Evolutionary Algorithm
    Based on Decision Variable Classification

    (Zhengping Liang , Tiancheng Wu, Xiaoliang Ma, Zexuan Zhu , Member, IEEE,and Shengxiang Yang , Senior Member, IEEE)
    这是2020年发布在IEEE上的一篇文章,主要讲的是基于决策分类的进化算法来解决动态多目标优化问题(DMOPs),由于本人也是才接触多目标进化没多久,学术功底有限,如果有不正确的地方欢迎批评指正!

    前言

    首先提出两个问题
    1、什么是动态多目标优化问题(DMOPs)?
    具有多个互相冲突且随着时间变化的多目标优化问题
    2、动态多目标优化问题和多目标优化问题之间有什么区别呢?
    动态=Dynamic 优化问题是指其目标函数不仅与决策变量有关,而且还会随着时间(环境)动态变化。
    定义多目标问题(MOP)
    在这里插入图片描述
    定义动态多目标问题(DMOP)
    在这里插入图片描述
    X = (x1,x2,…xnt)代表nt维的决策变量向量,主要是新增加了t:离散的时间实例,fmt(x,t)表示x在时间t的第mt个目标函数。nt和mt的值都会随时间变化。F(x,t)代表时间t评估解x的目标函数向量;p和q分别是不等式约束和等式约束的个数;gi(x,t)代表第i个不等式约束;Ωt代表可行的时间空间;

    Abstract–摘要

    现状:目前提出了许多动态多目标进化算法(DMOEAs)来解决DMOPs,主要是通过将多样性引入方法或预测方法与常规多目标进化算法相结合来解决。维持种群收敛性和分布性(Convergence and Diversity)的良好平衡对于DMOEAs的性能至关重要。

    解决方案:提出了一种基于决策变量分类的DMOEA(DMOEA-DVC)。 DMOEA-DVC在静态进化和变化响应阶段分别将决策变量分为两个和三个不同的组。在静态进化中,两个决策变量组使用两种不同的交叉算子来加速收敛,同时保持良好的多样性。在变化响应中,DMOEA-DVC分别通过保持,预测和分布性引入策略来重新初始化三个决策变量组。

    实验结果:在33个基准DMOPs上将DMOEA-DVC与其他六个典型的DMOEAs进行了比较。实验结果表明,DMOEA-DVC的总体性能优于或类似于所比较的算法。

    Introduction–引言

    • 从MOEAs 到 DMOEAs遇到的问题
      多目标进化算法(MOEAs)在各种静态多目标优化问题(MOPs)上都取得了成功。但是,由于在动态环境中缺少快速的变化响应机制,在DMOPs中它们往往会失败。
    • 解决方法
      为了解决DMOPs,近年来已经提出了许多动态MOEAs(DMOEAs)。它们大部分可以被分为多样性引入方法(Diversity introduction approaches)和预测方法(prediction approaches)。

    Diversity introduction approaches–多样性引入方法

    多样性引入方法将一定比例的随机或突变个体引入进化种群以增加种群多样性。多样性的增加可以促进算法更好地适应新环境。但是,由于这些算法主要依靠静态进化搜索来找到引入多样性之后的最优解集,因此收敛速度可能会变慢

    prediction approaches–预测方法

    预测方法采用预测模型来预测在变化的环境中有希望的种群。可以大大提高种群收敛性。然而,大多数预测模型需要一个训练周期,在训练周期中预测模型的性能不能令人满意

    主要问题

    都没有考虑决策变量的不同特征。他们倾向于以相同的方式探索所有决策变量,这在平衡种群多样性和收敛性方面效率较低。

    主要亮点(idea)

    提出了基于决策变量分类(DMOEA-DVC)的DMOEA。分别在静态进化和变化响应阶段,使用两种决策变量分类方法将决策变量分为两个和三个不同的组。根据决策变量分类,将不同的进化算子和变化响应策略相应地应用于不同的组,以增强种群的分布性和收敛性。

    1. 在静态进化和变化响应阶段分别使用两种不同的决策变量分类方法,使算法能够更有效地探索不同的决策空间。
    2. 在静态进化中,引入了一种新的子代生成策略,该策略通过对两种不同类型的决策变量使用特定的交叉算子产生子代来加快种群收敛速度,同时保持算法的种群多样性。
    3. 在变化响应中,提出了一种保持,预测和多样性引入相结合的混合响应策略来处理三种类型的决策变量,从而在不同的动态环境中实现更好的适应性。

    Background–背景

    A、DMOP基础

    基于动态帕累托支配找到动态帕累托最优解或动态帕累托前沿面

    1. 定义1(动态帕累托支配):在时间t给出两个候选解x和y(x,y∈Ω),称x支配y,写为x(t)≺y(t),当且仅当
      在这里插入图片描述
    2. 定义2(动态帕累托最优解集):在时间t的一个动态帕累托最优解集记为PS(t),其中包括所有不被其他解支配的解,如下:在这里插入图片描述
    3. 定义3(动态帕累托前沿面):在时间t的一个动态帕累托最优面记为PF(t),是PS(t)中的解在目标函数空间中的映射,如下:
      在这里插入图片描述
    4. 定义4(多最优值变量):给定一个决策变量i,若PS(t)中存在两个解x,y,并且xi≠yi,xi,yi分别指x,y在决策变量i上的值,则称i有多个最优值,是一个多最优值变量。
    5. 定义5(单最优值变量):给定一个决策变量i,对于PS(t)中任意两个解x,y,他们对应的决策变量i值是一样的,即xi=yi,则称i有单个最优值,是一个单最优值变量。

    根据PF(t)和PS(t)的动态特性,将DMOP分为四种类型

    • 类型I: PS(t)随时间变化,而PF(t)是固定的。
    • 类型II: PS(t)和PF(t)都随时间变化。
    • 类型三:PS(t)是固定的,PF(t)随时间变化。
    • 类型IV: PS(t)和PF(t)都是固定的,但是随着时间的推移问题会改变。

    B、动态多目标进化算法

    1. 动态多目标算法(多样性引入)

    通过看下面这个表格就非常直观,最终通过引入多样性方法可以防止种群陷入局部最优,并且易于实施。在这里插入图片描述

    2. 动态多目标算法之(基于预测的方法)

    在这里插入图片描述
    其中基于预测的方法中,也有很多在PPS算法的基础上,进行一些改进,最终也可以显示出提高收敛速度的能力。

    C、决策变量分类方法

    通过结合多样性引入和基于快速预测的方法来利用两者的优点,提出了一种增强的变化响应策略。

    多样性引入或预测方法可以被视为搜索决策变量最优值的概率模型,大多数现有的DMOEAs都假定所有决策变量都处于相同的概率分布下。在实际的DMOPs中,决策变量的概率分布可能会发生很大变化。通过决策变量分类,可以将决策变量分为不同的组,然后可以将特定的概率搜索模型应用于相应的变量组以获得更好的解。

    在静态中的决策变量分类

    许多基于决策变量分类的MOEAs在静态MOPs上都取得了成功,决策变量扰动会产生大量个体用于分类,并成比例地消耗大量适应性评估。此策略对于静态MOPs效果很好,在静态MOPs中,决策变量的类别不变,并且仅需要分类一次。

    在动态中的决策变量分类

    • Woldesenbet和Yen [51]通过对目标空间变化的平均敏感度来区分决策变量,并以此为基础来重新安置个体。 该方法对于动态单目标优化问题效果很好,但是不适用于DMOP。
    • Xu提出了一种针对DMOP的协作式协同进化算法,其中决策变量被分解为两个子组件,即相对于环境变量t不可分离和可分离的变量。应用两个种群分别协同优化两个子组件。文献中提出的算法在基于环境敏感性可分解决策变量的DMOP上具有优越性,但是,在许多DMOP中可能并非如此。

    在这里插入图片描述

    Framework–框架

    在这里插入图片描述
    具体过程:初始化父代种群P,然后从父代种群中选出一个子代种群P′和一个非支配解的档案A。在每次迭代中,在使用进化算子生成每个子代个体之前,对P使用决策变量分类方法,并将结果记录在布尔向量flag_multi中,其中每个元素指示相应的决策变量是多最优还是单最优变量。DMOEA-DVC可检测到进化过程中的任何潜在变化,如果检测到变化,则将使用变化响应策略,否则,将对个体的不同类型决策变量使用不同的交叉算子生成子代个体,生成子代个体后,更新P和A。在每一次迭代的末尾,从当前父代种群和子代种群的混合中选择一个新的子代种群和一个新的档案。

    A、ClassificationSO–决策变量分类

    在静态进化阶段(算法1第6行)使用决策变量分类,以增加生成高质量子代个体的可能性。
    目标:找到在PF上分布均匀的种群,并尽快收敛到PF
    方法:探索种群中非支配个体的邻居是很有效的
    问题:如果子代的所有决策变量都是在非支配个体的决策变量附近生成的,则种群会陷入局部最优,为了避免这种情况,子代个体中的多最优值变量值应远离父代个体产生。

    • 子代中的多最优变量值应该远离非支配个体产生,以保持良好的多样性。
    • 对于单最优变量,子代个体中的生成值应尽可能接近父代个体中的相应值,以加速收敛。

    关键问题:如何确定多最优值变量和单最优值变量

    提出了一种区分多最优值变量和单最优值变量的近似方法。

    在DMOP中,目标函数可能在某些决策变量上相互冲突。如果两个目标函数在决策变量上发生冲突,则该决策变量被视为具有多个最优值。(这个也很好理解,如果在X=C时存在两个最优的解,那么这两个目标相互冲突)

    因此使用斯皮尔曼等级相关系数(SRCC)来衡量一个变量和一个目标函数之间的相关性。
    在这里插入图片描述
    如果第i个变量的两个目标函数之间存在明显的相关冲突(正相关与负相关),即max(ri1(t),ri2(t),…,rim(t))>0.5α并且min(ri1(t),ri2(t),…,rim(t))<-0.5α(α是预定义的阈值),则将第i个决策变量分类为多最优值变量。否则,第i个决策变量将被视为单最优值变量。

    在这里插入图片描述
    首先计算每个决策变量i与每个目标j之间的SRCC值,然后根据SRCC值将决策变量分为多最优值变量(第10行)或单最优值变量(第12行),然后采取上述对应方案。

    Classification–变化响应中决策变量分类

    在大多数现有的DMOPs中,考虑到环境变化,可以将决策变量分类为相似,可预测和不可预测的变量。

    • 相似 —无需重新初始化
    • 可预测 ----决策变量应基于预测进行重新初始化
    • 不可预测 -----可以通过引入多样性进行重新初始化

    非参数t-test用于评估决策变量的变化与环境变化的相关性

    在这里插入图片描述
    t-testi <=β,其中β是预定义的阈值,则第i个变量被视为无明显变化,也就是说,它是相似的变量,不需要重新初始化。如果t-testi>β,则第i个决策变量被认为具有显著变化,即变量i是可预测的或不可预测的,需要重新初始化。

    上面公式已经区分了相似或者可预测和不可预测的情况,现在我们继续区分到底是可预测情况还是不可预测情况。如下图所示

    将x_center的第i个决策变量置为预测值而其他决策变量保持不变来生成n个试验个体x_trial[i],如果x_trial [i]支配x_center,则接受第i个决策变量的预测,并将第i个决策变量分类为可预测变量,并使用基于预测的方法重新初始化。否则,第i个决策变量是不可预测的,并使用基于多样性引入的方法重新初始化
    在这里插入图片描述
    下面就展示算法3 的伪代码
    在这里插入图片描述
    首先,分别根据(7)和(8)计算t-test和x_center。其次,使用预测模型来预测新的个体x_p(确切的预测模型在第IV -C节中进行了描述)。第三,产生试验个体(第6-14行)并进行评估。如果试验个体支配质心个体,则该试验个体的相应决策变量的预测是正确的,否则该预测是不可接受的。

    B、环境选择

    • DMOEA-DVC和SGEA[33]使用相同的选择方法,适应度函数F(i)表示支配个体xi的个体数目
      在这里插入图片描述

    • 如果存档A中个体少于N则从种群中挑选最好的个体进P’,如果刚好相等,就将A中所有个体转入P’,如果存档A中个体多了就从种群中挑选最远的个体进P’.

    C、ChangeResponse --变化响应

    定义的三种类型的决策变量分别使用保持,多样性引入和预测方法。

    • 保持:如果决策变量是相似变量,则DMOEA-DVC会在变化响应中保持该变量的值不变。
    • 多样性引入:如果决策变量是不可预测的变量,则对该变量应用随机重新初始化策略。变量更新如下:
      在这里插入图片描述
      其中,Li(t)和Ui(t)分别表示在时间t处第i个变量的上限和下限,rand是[0,1]中的随机值。
    • 预测方法:如果将决策变量分类为可预测变量,则使用具有较短训练周期的卡尔曼滤波器[25],[33]通过中心预测将其重新初始化。
    • 在这里插入图片描述
      下面就是算法4的伪代码
      在这里插入图片描述

    D、GenerateOffspring --子代生成

    模拟二进制交叉(SBX)或DE交叉算子用于根据决策变量是否为多最优值变量来生成决策变量的值。SBX和DE交叉算子是MOEAs中两个常用的交叉算子。
    在这里插入图片描述
    图1展示了这两个交叉算子生成的子代解的分布示例。SBX生成的子代解更接近父代,而DE交叉生成的子代解远离父代。应该在远离父代的位置生成多最优值变量,在这种情况下应使用DE交叉算子。而单最优值变量应在父代附近生成,即选择SBX。
    在这里插入图片描述
    这个伪代码已经很简单了,如果是多最优值变量就选择DE交叉算子,否则,单优值变量选择SBX交叉算子。

    E、种群更新

    DMOEA-DVC使用与SGEA相同的稳态种群更新策略。种群更新策略在父种群P和档案A中都执行。新生成的子代个体y用于替换P中最差的个体,同时更新A。

    Conclusion

    • 本文提出了一种基于决策变量分类的DMOEA,即DMOEA-DVC。对静态优化阶段和变化响应阶段的决策变量进行了分类。采用不同的策略来生成不同类型变量的值,以达到种群多样性和收敛性的良好平衡。
    • DMOEA-DVC与其他六种最先进的DMOEA在33个基准DMOP上进行了比较。实验结果表明了DMOEA-DVC算法的有效性。

    ps:上面大部分也是根据原文来进行总结以及理解的,由于本人也是才接触多目标进化没多久,学术功底有限,如果有不正确的地方欢迎批评指正!同时也借鉴了这些博客,如果想要了解,可以看
    https://blog.csdn.net/u013555719/article/details/106856234?
    同时这篇文章提到的几种动态多目标的算法,DCOEA、PPS、SGEA、有兴趣大家可以搜索了解一下。
    同时我目前的微信公众号也是“研行笔录”,后期我也会持续更新,如果有兴趣的话,可以点个关注,不迷路!
    在这里插入图片描述

    展开全文
  • 论文研读-基于决策变量分析的大规模多目标进化算法 Multiobjective Evolutionary Algorithm Based on Decision Variable Analyses for Multiobjective Optimization Problems With Large-Scale Variables 觉得有用的...

    论文研读-基于决策变量分析的大规模多目标进化算法

    Multiobjective Evolutionary Algorithm Based on Decision Variable Analyses for Multiobjective Optimization Problems With Large-Scale Variables

    觉得有用的话,欢迎一起讨论相互学习~

    我的微博我的github我的B站

    论文研读系列文章

    论文研读-多目标自适应memetic算法

    论文研读-基于决策变量分析的大规模多目标进化算法

    论文研读-多目标优化中的多源选择迁移框架

    论文研读-基于决策变量聚类的大规模多目标优化进化算法

    论文研读-基于变量分类的动态多目标优化算法

    • 此篇文章为 X. Ma et al., "A Multiobjective Evolutionary Algorithm Based on Decision Variable Analyses for Multiobjective Optimization Problems With Large-Scale Variables," in IEEE Transactions on Evolutionary Computation, vol. 20, no. 2, pp. 275-298, April 2016, doi: 10.1109/TEVC.2015.2455812. 的论文学习笔记,只供学习使用,不作商业用途,侵权删除。并且本人学术功底有限如果有思路不正确的地方欢迎批评指正!

    Abstract

    • 最新的多目标进化算法(MOEA)将所有决策变量作为一个整体来处理(即所有决策变量不做区别,或者同时对所有维度的决策变量进行优化)以优化性能。受单目标优化领域中协作协同进化和链接学习方法的启发,将一个困难的高维问题分解为一组更易于解决的较简单和低维的子问题十分具有意义。但是,由于没有关于目标函数的先验知识,因此不清楚如何分解目标函数。此外,使用这样的分解方法来解决多目标优化问题(MOP)十分困难,因为它们的目标函数通常相互冲突。也就是说,仅仅改变决策变量将产生非支配的解决方案。本文提出了相互依赖变量分析和控制变量分析,以解决上述两个困难。因此,本文提出了一种基于决策变量分析(DVA)的MOEA。并使用控制变量分析用于识别目标函数之间的冲突。更具体地说,哪些变量影响生成的解的多样性,哪些变量在总体收敛中起重要作用。基于链接学习的方法,相互依赖变量分析将决策变量分解为一组低维子组件。实证研究表明,DVA可以提高大多数困难MOP的解决方案质量。

    关键词

    • Cooperative coevolution, decision variable analysis (DVA), interacting variables, multiobjective optimization, problem decomposition. 合作协同进化,决策变量分析 (DVA),交叉变量,多目标优化,问题分解。

    Introduction

    • 具有一次运行即可生成许多代表性近似解的优势,进化算法(EA)已广泛用于多目标优化问题(MOP)[1]。当前,最先进的多目标EA(MOEA)[2]-[4]更加注意保持目标空间中获得的解决方案的多样性,并将所有决策变量作为一个整体(即所有决策变量不做区别,或者同时对所有维度的决策变量进行优化)进行优化。由于MOP的复杂性和难度,简化一个较为困难的MOP的方法很有研究价值。影响优化问题复杂性和难度的主要因素是决策变量的数量[5]。受协作协同进化[6] – [9]和链接学习方法[10],[11]的启发,一种理想的方式是将具有高维变量的MOP的每个目标函数分解为许多更简单和低维的子函数。如果存在这种分解,则优化原始函数等于分别解决每个子函数。上述“分而治之”策略的主要困难是如何选择良好的分解方法,以使不同子函数之间的相互依赖性保持最小。尽管分解对协作协同进化和链接学习算法的性能具有重要影响,但是通常对于给定问题的隐藏结构了解不足,无法帮助算法设计者发现合适的分解。因此,有必要设计一种算法,该算法可以检测决策变量之间的相互作用以划分决策变量。为此,开发了相互依赖变量分析。
    • 使用在单目标优化问题(SOP)中提出的分而治之策略用于解决MOP并非易事,因为MOP的目标函数相互冲突。 目标函数之间的冲突在这里指的是通过更改决策变量来生成的无法比较的解决方案。 冲突意味着MOP的目标是找到一组Pareto最优解,而不是像SOP中那样找到单个最优解。 由于位置变量和混合变量[12]对生成的解的传播有影响,因此两种变量都被视为目标函数之间冲突的根源。
    • 基于上述决策变量的控制分析和两个变量之间的相互依赖分析,我们提出了基于决策变量分析的MOEA(MOEA / DVA)。 基于决策变量的控制分析,MOEA / DVA将复杂的MOP分解为一组更简单的子MOP。 基于两个变量之间的相互依赖性分析,决策变量被分解为几个低维子组件。 每个子MOP都会一个一个地独立优化子组件。 因此,与大多数优化了所有决策变量的MOEA相比,MOEA / DVA有望具有优势。
    • 论文主要贡献如下所示:
    1. 为了帮助读者理解变量相互依赖的概念,提供了两个必要条件。
    2. 为了学习目标函数之间的冲突,使用了位置变量和混合变量[12]的概念。 此外,基于位置变量和混合变量而不是权重向量,本文提供了一种新的分解方案,可将困难的MOP转换为一组更简单的子MOP。
    3. 在具有良好的相互作用变量理论基础的情况下,本文尝试将具有高维变量的困难MOP分解为一组具有低维子组件的简单子MOP。
    4. 本文证明了连续ZDT和DTLZ问题的目标函数是可分离的函数。对于2009年IEEE进化计算大会(CEC)竞赛的无约束多目标目标函数(UF)问题[13]证明了其两个决策变量之间的相互作用是稀疏的,并且集中在混合变量上。
    • 本文的其余部分安排如下。 第二部分介绍了有关多目标优化的定义和表示,变量链接,决策变量的控制属性,决策变量的链接学习技术以及基于学习链接的变量划分技术的几种相关背景。 第三节介绍了DVA和提出的算法MOEA / DVA。 第四节说明并分析了实验结果。 第五节总结了本文。

    相关工作

    • 本节介绍相关研究背景的两个方面。 一个是SOP(单目标优化问题)。 SOP的相关研究背景包括决策变量的可分离性和不可分离性,各种链接学习方法以及基于学习链接的决策变量的不同划分方法。 另一个是MOP(多目标优化问题)。 MOP的相关研究背景包括MOP的定义和符号,连续MOP的规律性[14]以及决策变量的控制性。

    可分离和不可分离决策变量

    • f(x)只有当每一个决策变量都能够被单独地进行优化才叫做可分离函数。

    • 定义1 表示可以通过逐一优化变量来解决可分离函数。 可分离性意味着每个变量都独立于任何其他变量。 关于可分离函数和不可分离函数的其他定义可以在[7]和[12]中找到。 球面函数sphere function,广义Rastrigin函数,广义Griewank函数和Ackley函数[15],[16]是可分离函数的代表。 基本上,可分离性函数意味着可以独立于任何其他变量来优化问题中涉及的决策变量,而不可分离性函数意味着至少两个决策变量之间存在相互作用interactions。

    • 变量依赖性是问题的重要方面,它们描述了问题的结构。如果预先知道问题的变量依赖性,则很容易将决策变量划分为几个子组件。因此,通过分别优化具有低维子组件的几个较简单的子问题来解决高维变量的难题是十分有益的。但是,问题的变量依赖性通常是事先未知的。此外,“相互依存变量”的定义不是唯一的。 Yu等[17]提出,当且仅当没有两个决策变量所携带的信息,关联子问题不能被优化时,两个决策变量相互作用。 Weise等[5]提出,如果改变一个决策变量对适应度的影响依赖于另一个决策变量的值,则两个决策变量会相互影响。与以上两个定性定义不同,本文使用以下相互依赖变量的定量定义。

    • 定义2 :

    • 定义2可以从Yang等人[7]提出的不可分函数的定义中得出。在这些“相互依赖变量”的不同定义中,我们选择“定义2”作为相互依赖变量的定义 因为该定义是 定量的 且易于使用。

    • 对于一个不可分的函数f(x),如果 任意两个不同的决策变量xi,xj相互作用,则称这个函数是完全不可分的 Schwefel’s function 2.22, generalized Griewank function, and Ackley’s function [15], [16] 是完全不可分的函数 这里我有一点不懂,上一段中说广义Griewank函数和Ackley函数是可分离的函数呀,为什么这里又表述为完全不可分的呢? . 在完全可分和完全不可分的函数之间,存在大量的部分可分函数[16],[19]. 如果最多k个决策变量x不独立,就说一个函数是k-不可分的。 通常,不可分程度越大,函数求解越难[5]。 实际的优化问题很可能由几个独立的模块组成[16],[19]。 这些问题大多都是部分可分离函数。 对于此类问题,有趣的一点是,具有高维决策变量的困难函数可以分解为具有低维子组件的几个简单子函数。 因此,部分可分离的函数在优化[20]和进化计算[16],[21]领域引起了很多关注。

    决策变量的内部依赖检测技术

    • 对于具有模块化特征的问题,如果算法能够学习问题结构并相应地分解函数,则解决问题的难度将迅速降低[22]。 因此,降低问题难度的关键问题是检测变量交叉。根据Yu[17]和Omidvar[21]等人的建议,链接检测技术分为四大类:1)扰动; 2)交互适应; 3)建立模型; 和4)随机。
    1. 扰动:
    • 这些方法通过扰动决策变量来检测交互,并研究由于这种扰动而导致的适应性变化。 典型的扰动方法包括以下两个步骤。 第一步是扰动决策变量并检测决策变量之间的交互。 第二步是将具有高度相互依赖性的决策变量组合到同一子组件中以进行优化。 这类方法的示例包括:通过非线性检查(LINC)进行链接识别[23],通过对实值遗传算法(LINC-R)进行非线性检查进行链接识别[24],自适应协进化优化[25]以及与 变量交互学习[18]。 我们提出的相互依赖变量分析可以被认为是一种扰动方法。
    1. 交互适应:
    • 这些方法将相互依赖检测技术融入到单个编码中,同时解决了问题。 个体之间相互依赖的变量越紧密,其重组概率就越高。 典型的例子有连锁学习遗传算法[26]和连锁进化遗传算子[27]。
    1. 建模:
    • 模型构建方法的经典框架包括五个步骤:a)随机初始化进化种群; b)选择一些有希望的解决方案; c)基于那些选定的有希望的解建立模型; d)从学习模型中采样新的试用解; e)重复步骤b)-e),直到满足停止标准为止。 典型代表包括分布算法(EDA)的估计[28],紧凑型遗传算法[29],贝叶斯优化算法(BOA)[30]和依赖结构矩阵(DSM)驱动的遗传算法[17]。
    1. 随机方法:
    • 与上述三种方法不同,这些方法没有使用智能过程来检测决策变量之间的交互性[7],[21]。 他们随机排列变量以提高将相交互的变量放入相同子组件的可能性[7]。

    基于学习链接的分类技术

    • 注意:这是背景介绍,但不全是本文提出的工作
    • 在本节中,我们介绍两种决策变量的划分方法。 第一个是将具有交互作用的决策变量划分为相同的子组件[21]。 这种划分技术对于模块化的问题是有效的。 然而,这种划分技术对于重叠和层次结构问题可能不是最好的[17]。 第二个是基于DSM聚类技术[17]划分变量。 DSM是由两个决策变量之间的相互作用构建的矩阵。 DSM聚类技术在产品设计和开发的体系结构改进中很流行。DSM聚类的目标是在同一簇内保持最大的交互,而簇间保持最小的交互。
      图2给出了DSM聚类的实例。

    • 为了在聚类布置的准确性和复杂性之间做出权衡,Yu等人。 [31]提出了一种基于最小描述长度(MDL)的度量,描述为

    多目标优化

    连续多目标优化的规律性

    • 对于大部分ZDT[34],DTLZ[35],UF[13]多目标优化测试集来说, PS分布的维度是(M-1)维,其中M是目标数量
    • 举个例子,对于一个双目标的50维度的问题来说,大多数情况下,第一维控制分布,而后49维都会控制收敛,最优种群中的后49维的每一个维度的最优值都只有一个,每个个体的后49维的每个维度都会收敛到各自定义的一个特定的最优点上,而第一维则会按照分布要求分散开来。–如果实在不太理解的话可以看看benchmark给的最优点,也就是优化的目标答案。

    决策变量的控制性

    • 除了可分离性以外,决策变量根据多目标优化中与适应度景观的关系还存在着控制性。下列类型的关系很有趣,因为我们可以使用它们来将解分为多样部分和收敛部分[12]。位置变量–单纯改变position位置变量的值只会使解变为非支配关系的解或者相等的解,对应着多目标优化的多样性,而如果单纯改变一个变量的值会引起支配关系的改变或者相等的值而从不会出现废纸配的关系,即只有支配关系或者相等,即解不是变好就是变坏,而不是多样性的改变,则称这个变量为distance距离变量,如果不是位置变量或者距离变量我们将其成为mix混合变量,而混合变量在本篇论文的算法中当做多样性变量进行处理。

    • 根据连续多目标优化的规律,ZDT,DTLZ,UF等多目标优化问题的位置变量和混合变量的总数是m-1,而距离变量的总数是n-m+1

    提出的算法MOEA/DVA

    控制变量分析

    • 位置position变量控制多样,distance变量控制收敛,具体控制变量分析方法如算法1所示:
    • 使用UF测试用例来举例说明控制变量法来分类变量的思路
    • 当所提出的算法执行决策变量的控制分析时,所需目标函数评估的次数为n×NCA,其中NCA为采样解的数量。 基于算法1的大量样本,表I总结了现有基准MOP的控制特性分析,例如连续ZDT,DTLZ,UF1-UF10和三目标WFG问题。 在此表中,三目标WFG问题的n = 24个变量,与位置position相关的变量数k = 4。

    两个决策变量之间的相互依赖分析

    • 如第II-A节所述,存在有关交互变量的不同定义。 在本文中,定义2用于分析两个决策变量之间的相互依赖关系。

    两个变量相互依赖的必要条件

    • 既然是必要条件,即说明是如果两个变量相互依赖,那么即会出现的性质,出现这种性质不能推导出两个变量相互依赖。但是如果这种性质或者条件不满足,则两个变量绝对不是相互依赖的。

    必要条件1

    • 偏导依赖

    必要条件2

    学习变量之间的交互

    • 实际上,决策变量之间的相互作用可以用来将一个困难的函数分解为具有低维子组件的一组子函数[21]。 手冢等[24]使用公式(5)以不用推导就能学习演化过程中两个决策变量之间的相互作用。 对于可加分离函数,Omidvar等[21]给出了使用公式(5)识别相互作用的决策变量的理论推导。 然而,公式(5)是识别连续微分函数中两个决策变量相互作用的必要条件,但不是充分条件,如第III-B1节所述。
    • 本文中使用定义二来学习两个决策变量之间的交互关系,算法2给出了实现细节,图5-7展示了ZDT1,DTLZ1,UF1 和UF8以及五个WFG问题的两个决策变量之间的交互关系

    • 这些问题有两个突出的特点。 一个是在ZDT1,DTLZ1,WFG1和WFG4-WFG5问题的各个函数中不存在变量交互作用。 另一个是稀疏变量交互作用集中于UF1和UF8问题的m-1个决策变量,其中m是在(3)中定义的目标函数的数量。 通常,根据定义2,对于大多数基准测试问题(包括连续的ZDT,DTLZ,UF和WFG问题),存在稀疏变量交互。 此外,在大多数连续ZDT和DTLZ问题中都是可分离的函数。
    • 当对两个变量之间的相互作用进行一种判断时,所提出的算法需要在三个点上评估目标函数的值。 因此,相互依赖性分析所需的目标函数评估数为(3/2)n(n-1)* NIA,其中m为目标函数数,n为MOP(3)中定义的决策变量数, NIA是判断两个变量之间的相互作用所需的最大尝试次数。 NIA越大,两个变量之间相互作用的判断将越精确。
    • 至于为什么是三个点,下图可以解释

    根据变量链接对距离变量进行分类(MOP根据变量链接的最大连接子图)

    • 具体分类方式参考算法3
    • 距离变量对收敛有影响,位置变量对多样性有影响,距离变量是MOP重点优化的难题,而位置变量是主要矛盾所在。在优化早期,我们的策略是先维持多样性的位置变量不动而只优化距离变量。
    • 和单目标优化不同,MOP需要同时优化所有目标函数,因此需要在所有目标函数上对决策变量进行分类。我们将每个目标函数中的变量链接合成为一张变量链接图。 图8提出了一个三目标问题,以说明基于最大连通子图划分变量的过程。

    • 注意,这些都是对收敛性的决策变量进行的工作,对于多样性的决策变量在算法早期保持不变
    • 注意:在某些算法中会为了使subcomponents更小而打断一些链接,但是本算法暂时没有考虑这个问题,因为我们不清楚如果打断一个链接对算法最终的影响会是如何。EDA也许是一个比较好的期望能解决这个问题的算法。

    提出的MOEA/DVA的框架

    • 提出的MOEA/DVA的流程图如图9所示,
    1. 决策变量分析:有两种决策变量分析 控制性分析和交互分析 控制性分析将决策变量分为收敛性变量和多样性变量,交互分析用于将收敛性变量使用变量链接进行分组。
    2. 距离变量分类:收敛性变量也被称为距离变量,将高维转化为若干个低维子组件。
    3. 基于多样性变量的MOP分解:一个MOP被分解为一组具有不同变量(位置变量和混合变量)值均匀分布的子MOP。
    4. 子组件优化:对每个子组件独立优化以提升收敛速度。
    5. 分布性优化:优化所有决策变量,包括位置变量和混合变量。 其目的是提高目标空间中种群的分布性。
    • 与基于权重向量的MOEA/D [2]分解和基于偏好方向的MOEA/D-M2M [36]分解不同,本文使用各种变量(位置变量和混合变量)分解困难的MOP(3)分成一组更简单的变量分布均匀的子MOP。表II中列出了子MOP,子问题和多目标子问题之间的差异。每个子MOP是一个多目标优化问题,由原始MOP(3)定义,并具有不同变量的固定值。以带有三个决策变量的UF1问题为例来说明sub-MOP的概念。根据III-A部分的控制分析,UF1问题的x1是一个混合变量,x2和x3是距离变量。原始MOP绘制在图10(左)上,而图10(右)显示了具有恒定变量x1 = 0.25的子MOP。子MOP的主要特征是它仅具有距离变量,而没有多样性变量(位置变量和混合变量)。

    • 进化种群的结构如图11所示,其中N是种群大小。在本文中,MOEA / DVA优化了单个进化种群,所有子组件共享相同的种群。种群中的每个体都代表一个MOP。在此图中,我们假设x1和x2是多样化变量(位置变量或混合变量),而x3,x4,…。 。 。 ,x8是距离变量。距离变量分为三个独立的子分量{x3},{x4,x5,x6}和{x7,x8}。在算法优化早期,固定位置变量,只优化距离变量。sub-MOP的特征之一是多样性变量的值在演化的早期是固定的。因此,种群中多样性变量的分布对获得的解的分布具有重要影响。为了保证进化种群的多样性,均匀采样方法[37]被用来初始化种群多样性变量的值。

    • 表III列出了多样性变量的分解与距离变量的分解之间的差异。 基于学习到的变量链接,MOEA / DVA通过算法3将距离变量分解为一组低维子组件。算法4提供了MOEA / DVA的详细信息。 在MOEA / DVA中,这两个分解共同解决了MOP。 MOEA / DVA首先通过具有均匀分布的多样性变量将困难的MOP分解为多个更简单的子MOP。 然后,每个子MOP在发展的早期阶段都逐一优化子组件。

    • 算法4的第5行对距离变量进行分组。 算法4的第9-12行类似于协作协同进化框架[7],[21]。 算法4的第11行执行下一段介绍的子组件优化。 为简单起见,我们为MOEA / DVA中的每个子组件分配相同的计算资源。 也可以根据不同的子组件的近期性能为它们分配不同的计算资源[38]。

    • 对于子组件优化,我们在MOEA/D [2]中使用进化算子。由于每个目标函数fi(x,i = 1,…,m)是连续的,因此相邻子MOP的最优解应该彼此接近。因此,有关其相邻子MOP的任何信息将有助于优化当前子MOP [2]。这些子MOP之间的邻域关系是基于其各个变量之间的欧几里得距离定义的。如果第i个子MOP的多样性变量接近第j个子MOP的多样性变量,则第i个子MOP是第j个子MOP的邻居。算法5提供了子组件优化的详细信息。在第3步中,由于在发展的早期阶段每个子MOP的多样性变量值是固定的,因此MOEA / DVA仅使用第i个MOP的后代来更新第i个MOP的当前解。为简单起见,算法5在发展的早期阶段为MOEA / DVA中的每个单独/子MOP分配了相同的计算资源。结论中将讨论更智能的MOEA / DVA版本。

    • 最后,我们在算法4的第17行中介绍了在MOEA / DVA中进行均匀性优化的必要性。如上所述,MOEA / DVA首先将MOP分解为具有均匀分布的多样性变量的子MOP集合,并且逐个优化每个子MOP。 通过在演化的早期为多样性变量赋予统一固定值,MOEA / DVA可以在决策变量上通过均匀的多样性变量保持种群的多样性。 因此,MOEA / DVA找到的解决方案的分布高度依赖于问题从PS到PF的映射。

    • 通过算法的效用评价算法的阶段–先固定多样性只对收敛性变量进行优化,然后当达到效用阈值,对所有变量进行优化

    • 为了解决这一问题,利用MOEA/D对所有的决策变量进行演化,包括演化后期的多样性变量( if 效用 < 阈值 )。其目的是为了提高种群在目标空间中的均匀性。因此,MOEA/DVA的思想是逐个优化子组件,使进化种群在进化的早期阶段( if 效用 ≥ 阈值 )具有良好的收敛性。在进化后期,MOEA/DVA对包括不同变量在内的所有决策变量进行优化,使进化种群在目标空间中具有良好的均匀性。子组件优化的效用在算法6中计算。

    参考文献

    [1] K. Deb, Multi-Objective Optimization Using Evolutionary Algorithms. New York, NY, USA: Wiley, 2001.
    [2] Q. Zhang and H. Li, “MOEA/D: A multi-objective evolutionary algorithm based on decomposition,” IEEE Trans. Evol. Comput., vol. 11, no. 6, pp. 712–731, Dec. 2007.
    [3] N. Beume, B. Naujoks, and M. Emmerich, “SMS-EMOA: Multiobjective selection based on dominated hypervolume,” Eur. J. Oper. Res., vol. 181, no. 3, pp. 1653–1669, 2007.
    [4] K. Deb and H. Jain, “An evolutionary many-objective optimization algorithm using reference-point based non-dominated sorting approach, part I: Solving problems with box constraints,” IEEE Trans. Evol. Comput., vol. 18, no. 4, pp. 577–601, Aug. 2014.
    [5] T. Weise, R. Chiong, and K. Tang, “Evolutionary optimization: Pitfalls and booby traps,” J. Comput. Sci. Technol., vol. 27, no. 5, pp. 907–936, 2012.
    [6] M. Potter and K. Jong, “A cooperative coevolutionary approach to function optimization,” in Proc. Int. Conf. Parallel Probl. Solv. Nat., vol. 2. Jerusalem, Israel, 1994, pp. 249–257.
    [7] Z. Yang, K. Tang, and X. Yao, “Large scale evolutionary optimization using cooperative coevolution,” Inf. Sci., vol. 178, no. 15, pp. 2985–2999, 2008.
    [8] X. Li and X. Yao, “Cooperatively coevolving particle swarms for large scale optimization,” IEEE Trans. Evol. Comput., vol. 16, no. 2, pp. 210–224, Apr. 2012.
    [9] Y. Mei, X. Li, and X. Yao, “Cooperative co-evolution with route distance grouping for large-scale capacitated arc routing problems,” IEEE Trans. Evol. Comput., vol. 18, no. 3, pp. 435–449, Jun. 2014.
    [10] D. Goldberg, Genetic Algorithms in Search, Optimization, and Machine Learning. Reading, MA, USA: Addison-Wesley, 1989.
    [11] Y. Chen, T. Yu, K. Sastry, and D. Goldberg, “A survey of linkage learning techniques in genetic and evolutionary algorithms,” Illinois Genet. Algorithms Libr., Univ. Illinois Urbana-Champaign, Urbana, IL, USA, Tech. Rep. 2007014, 2007.
    [12] S. Huband, P. Hingston, L. Barone, and L. While, “A review of multiobjective test problems and a scalable test problem toolkit,” IEEE Trans. Evol. Comput., vol. 10, no. 5, pp. 477–506, Oct. 2006.
    [13] Q. Zhang et al., “Multiobjective optimization test instances for the CEC 2009 special session and competition,” School Comput. Sci. Electr. Eng., Univ. Essex, Colchester, U.K., Tech. Rep. CES-887, 2008.
    [14] Q. Zhang, A. Zhou, and Y. Jin, “RM-MEDA: A regularity model-based multiobjective estimation of distribution algorithm,” IEEE Trans. Evol. Comput., vol. 12, no. 1, pp. 41–63, Feb. 2008.
    [15] L. Jiao, Y. Li, M. Gong, and X. Zhang, “Quantum-inspired immune clonal algorithm for global optimization,” IEEE Trans. Syst., Man, Cybern. B, Cybern., vol. 38, no. 5, pp. 1234–1253, Oct. 2008.
    [16] K. Tang, X. Li, P. Suganthan, Z. Yang, and T. Weise, “Benchmark functions for the CEC’2010 special session and competition on large-scale global optimization,” Nat. Inspir. Comput. Appl. Lab., Univ. Sci. Technol. China, Hefei, China, Tech. Rep. 2010001, 2010.
    [17] T. Yu, D. Goldberg, K. Sastry, C. Lima, and M. Pelikan, “Dependency structure matrix, genetic algorithms, and effective recombination,” Evol. Comput., vol. 17, no. 4, pp. 595–626, 2009.
    [18] W. Chen, T. Weise, Z. Yang, and K. Tang, “Large-scale global optimization using cooperative coevolution with variable interaction learning,” in Proc. Conf. Parallel Probl. Solv. Nat., Kraków, Poland, 2010, pp. 300–309.
    [19] P. Toint, “Test problems for partially separable optimization and results for the routine PSPMIN,” Dept. Math., Univ. Namur, Namur, Belgium, Tech. Rep. 83/4, 1983.
    [20] B. Colson and P. Toint, “Optimizing partially separable functions without derivatives,” Optim. Methods Softw., vol. 20, nos. 4–5, pp. 493–508, 2005.
    [21] M. Omidvar, X. Li, Y. Mei, and X. Yao, “Cooperative co-evolution with differential grouping for large scale optimization,” IEEE Trans. Evol. Comput., vol. 18, no. 3, pp. 378–393, Jun. 2014.
    [22] D. Thierens and D. Goldberg, “Mixing in genetic algorithms,” in Proc. 5th Int. Conf. Genet. Algorithms, Urbana, IL, USA, 1993, pp. 38–45.
    [23] M. Munetomo and D. Goldberg, “Identifying linkage groups by nonlinearity/ nonmonotonicity detection,” in Proc. Genet. Evol. Comput. Conf., vol. 1. Orlando, FL, USA, 1999, pp. 433–440.
    [24] M. Tezuka, M. Munetomo, and K. Akama, “Linkage identification by nonlinearity check for real-coded genetic algorithms,” in Proc. Genet. Evol. Comput. Conf., Seattle, WA, USA, 2004, pp. 222–233.
    [25] K. Weicker and N. Weicker, “On the improvement of coevolutionary optimizers by learning variable interdependencies,” in Proc. IEEE Congr. Evol. Comput., Washington, DC, USA, 1999, pp. 1627–1632.
    [26] Y. Chen, “Extending the scalability of linkage learning genetic algorithms: Theory and practice,” Ph.D. dissertation, Dept. Comput. Sci., Univ. Illinois Urbana-Champaign, Urbana, IL, USA, 2004.
    [27] J. E. Smith, “Self adaptation in evolutionary algorithms,” Ph.D. dissertation, Dept. Comput. Sci., Univ. West England, Bristol, U.K., 1998.
    [28] Q. Zhang and H. Muehlenbein, “On the convergence of a class of estimation of distribution algorithms,” IEEE Trans. Evol. Comput., vol. 8, no. 2, pp. 127–136, Apr. 2004.
    [29] G. R. Harik, F. G. Lobo, and D. E. Goldberg, “The compact genetic algorithm,” IEEE Trans. Evol. Comput., vol. 3, no. 4, pp. 287–297, Nov. 1999.
    [30] M. Pelikan and D. Goldberg, “BOA: The Bayesian optimization algorithm,” in Proc. Genet. Evol. Comput. Conf., Orlando, FL, USA, 1999, pp. 525–532.
    [31] T. Yu, A. Yassine, and D. Goldberg, “A genetic algorithm for developing modular product architectures,” in Proc. ASME Int. Design Eng. Tech. Conf., Chicago, IL, USA, 2003, pp. 515–524.
    [32] K. Miettinen, Nonlinear Multiobjective Optimization. Boston, MA, USA: Kluwer Academic, 1999.
    [33] C. Hillermeier, Nonlinear Multiobjective Optimization—A Generalized Homotopy Approach. Boston, MA, USA: Birkhauser, 2001.
    [34] E. Zitzler, K. Deb, and L. Thiele, “Comparison of multiobjective evolutionary algorithms: Empirical results,” Evol. Comput., vol. 8, no. 2, pp. 173–195, 2000.
    [35] K. Deb, L. Thiele, M. Laumanns, and E. Zitzler, “Scalable multiobjective optimization test problems,” in Proc. Congr. Evol. Comput., Honolulu, HI, USA, 2002, pp. 825–830.
    [36] H. Liu, F. Gu, and Q. Zhang, “Decomposition of a multiobjective optimization problem into a number of simple multiobjective subproblems,” IEEE Trans. Evol. Comput., vol. 18, no. 3, pp. 450–455, Jun. 2014.
    [37] K. Fang and D. Lin, “Uniform designs and their application in industry,” in Handbook on Statistics in Industry, vol. 22. Amsterdam, The Netherlands: Elsevier, 2003, pp. 131–170.
    [38] M. Omidvar, X. Li, and X. Yao, “Smart use of computational resources based on contribution for cooperative co-evolutionary algorithms,” in Proc. Genet. Evol. Comput. Conf., Dublin, Ireland, 2011, pp. 1115–1122.
    [39] R. Storn and K. Price, “Differential evolution—A simple and efficient heuristic for global optimization over continuous spaces,” J. Global Optim., vol. 11, no. 4, pp. 341–359, 1997.
    [40] K. Deb, S. Agrawal, A. Pratap, and T. Meyarivan, “A fast and elitist multiobjective genetic algorithm: NSGA-II,” IEEE Trans. Evol. Comput., vol. 6, no. 2, pp. 182–197, Apr. 2002.
    [41] L. Tseng and C. Chen, “Multiple trajectory search for unconstrained/ constrained multi-objective optimization,” in Proc. IEEE Congr. Evol. Comput., Trondheim, Norway, 2009, pp. 1951–1958.
    [42] P. Bosman and D. Thierens, “The naive MIDEA: A baseline multi-objective EA,” in Proc. Evol. Multi-Criterion Optim. (EMO), Guanajuato, Mexico, 2005, pp. 428–442.
    [43] C. Ahn, “Advances in evolutionary algorithms,” in Theory, Design and Practice. Berlin, Germany: Springer, 2006.
    [44] Q. Zhang, W. Liu, and H. Li, “The performance of a new version of MOEA/D on CEC09 unconstrained MOP test instances,” School Comput. Sci. Electr. Eng., Univ. Essex, Colchester, U.K., Tech. Rep. 20091, 2009.
    [45] M. Liu, X. Zou, Y. Chen, and Z. Wu, “Performance assessment of DMOEA-DD with CEC 2009 MOEA competition test instances,” in Proc. IEEE Congr. Evol. Comput., Trondheim, Norway, 2009, pp. 2913–2918.
    [46] E. Zitzler, L. Thiele, M. Laumanns, C. Fonseca, and V. Fonseca, “Performance assessment of multiobjective optimizers: An analysis and review,” IEEE Trans. Evol. Comput., vol. 7, no. 2, pp. 117–132, Apr. 2003.
    [47] J. Derrac, S. Garca, D. Molina, and F. Herrera, “A practical tutorial on the use of nonparametric statistical tests as a methodology for comparing evolutionary and swarm intelligence algorithms,” Swarm Evol. Comput., vol. 1, no. 1, pp. 3–18, 2011.
    [48] J. Durillo et al., “A study of multiobjective metaheuristics when solving parameter scalable problems,” IEEE Trans. Evol. Comput., vol. 14, no. 4, pp. 618–635, Aug. 2010.
    [49] L. Marti, J. Garcia, A. Berlanga, and J. Molina, “Introducing MONEDA: Scalable multiobjective optimization with a neural estimation of distribution algorithm,” in Proc. Genet. Evol. Comput. Conf. (GECCO), Atlanta, GA, USA, 2008, pp. 689–696.
    [50] L. Marti, J. Garcia, A. Berianga, and J. Molina, “Multi-objective optimization with an adaptive resonance theory-based estimation of distribution algorithm,” Ann. Math. Artif. Intell., vol. 68, no. 4, pp. 247–273, 2013.

    展开全文
  • 摘要为了提高CDCL求解器的求解效率,针对可满足性(SAT)问题算法中决策变量的选择问题,提出了一种基于加权决策变量决策层的分支策略.这个新策略的主要思想是:基
  • 最优化问题的三个要素:决策变量decision variables、目标函数objective function、约束条件constraints。 最优化问题可分为:函数优化问题、组合优化问题。 最优化问题及其分类 ...

    最优化问题:在一定的约束条件下,求解最优的输入,以使得目标函数取得期望极值。

    最优化问题的三个要素:决策变量decision variables、目标函数objective function、约束条件constraints。

    最优化问题可分为:函数优化问题、组合优化问题。

    搜索策略/搜索行为:人工搜索/手动调参、网格搜索Grid search(遍历/穷举),随机搜索Random search,贝叶斯优化算法 Bayesian optimization。启发式搜索Heuristical search/有信息搜索Informed search(智能优化算法)。

    搜索范围:局部最优,全局最优

    手动调参:不能保证得到最佳的参数组合。调参一种反复试验的方法,故会消耗更多的时间。

    网格搜索:由于它尝试每一种超参数组合,并根据交叉验证CV分数选择最佳组合,这使得网格搜索交叉验证极其缓慢、耗时。

    随机搜索:比网格搜索得到的结果更好,但不能保证给出最佳的参数组合。

    贝叶斯搜索:在2维或3维搜索空间中,需要十几个样本才能得到一个良好的替代曲面(surrogate surface); 增加搜索空间的维数需要更多的样本。属于一类被称为sequential model-based optimization(SMBO)的优化算法。

    启发式搜索:利用问题包含的启发信息来引导搜索,从而减少搜索范围、降低问题复杂度。其原理是,在状态空间中对每一个搜索结果的位置进行评估,得到最好的位置,再从这个位置进行新一轮搜索直至达到目标。

    参考链接:

    最优化问题及其分类

    最优化问题综述

    最优化算法——常见优化算法分类及总结

    超参数调优有哪些方法

    超参数优化 - 贝叶斯优化算法

    4种主流超参数调优技术

    超参随机搜索原理及核心实现

    机器学习中的超参数搜索-网格搜索、随机搜索、启发式搜索

    展开全文
  • 适用企业风险评估的决策变量规划,设计决策变量
  • 基于自适应信息素、决策变量高斯变异和决策变量边界自调整三种改进的混合改进蚁群算法附matlab代码
  • 针对各项目工期固定、资源受限条件下的多项目资源优化配置问题,在一定资源分配区间内,考虑项目活动间的资源有限约束及工序逻辑关系,将核心资源分配量作为决策变量,构建了多项目资源优化配置模型和算法,以期通过...
  • 例如,定义一个矩阵A,想要将一个决策变量a赋值给A的某一个元素就会报错。 A=zeros(2,3); a=sdpvar(1,1); A(2,2)=a; 在YALMIP仔细搜索后发现,矩阵A的定义方式有问题,只需要改成下面这样就可以: A=zeros(2,3,...
  • INumVar[][][] ak = new INumVar[numofcars][][];//车辆从设施a到设施k运量 INumVar[][][] AK = new INumVar[numofcars][][];//车辆g从设施a到设施k ...如何让01决策变量AK和整数决策变量ak相乘
  • Model2GeoGebra 使用Geogebra图形化求解具有两个决策变量的JuMP模型
  • 比如 我有100个决策变量, 但是目标函数里有一项受决策变量的范围影响,相当于分段函数吧, 但是决策变量的数据类型又不能直接和数值作比较, 该怎么办
  • 基于决策变量分组的粒子群算法求解大规模优化问题.pdf
  • docplex设置一个多维的决策变量

    千次阅读 2019-05-08 09:17:21
    之前参考的设置方法出处 如果我们要设置一个四维的0-1变量,docplex只提供了二维和三维的变量设置函数。 If we want to set up a multidimensional binary variables, but docplex only offer two-dimension and ...
  • 最近需要用NSGA-II解决多目标优化问题,但决策变量要求是整数,比如[1:200]之间的整数,但现在找的代码只能实现上下限约束,请问怎么添加整数约束并在代码中体现呢?
  • Gurobi建立设置三维决策变量(C++)

    千次阅读 2018-11-27 20:44:17
    1.建立三维决策变量 gurobi创建多维变量需要用指针创建多维数组,将变量存储到多维数组中。更高维度以此类推。注意头文件 #include "gurobi_c++.h" GRBVar*** x = 0;//首先声明一个指向二维数组的数组...
  • 三、线性规划 普通形式 -> 标准形式 无约束的决策变量转化、 四、线性规划 普通形式 -> 标准形式 约束方程 转化、 五、线性规划 普通形式 -> 标准形式 小于等于 0 的变量转化、 六、线性规划 普通形式 -> 标准形式 ...
  • 0-1的决策变量为什么运行之后这个决策变量中的值显示全为0.5,是什么原因造成的呢?
  • 论文研读-基于决策变量聚类的大规模多目标优化进化算法 A Decision Variable Clustering-Based Evolutionary Algorithm for Large-Scale Many-Objective Optimization 觉得有用的话,欢迎一起讨论相互学习~ 此篇...
  • c#调用cplex时想看决策变量最后的取值怎么看,请教大神,万分感谢
  • 两种群决策变量高斯分布的KL散度和WD距离 觉得有用的话,欢迎一起讨论相互学习~ 以下来自文章: Multisource Selective Transfer Framework in Multiobjective Optimization Problems, TEVC,2020 假设一个种群决策...
  • RBF初值变量

    2018-07-30 17:51:24
    用于RBF神经网络训练,已优化好的初值变量。怎么还不够字数啊
  • 变量决策树的研究与探讨,蔺建华,,目前大多数决策树构造方法在每个节点上只检验单一属性,这种单变量决策树忽视了信息系统中广泛存在的属性间的关联作用,而且修剪时�
  • 动态规划1

    千次阅读 2021-07-15 11:41:04
    动态规划 1.动态规划概论 ...使用动态规划方法求解决策问题首先要将问题改造成符合动态规划求解要求的形式,要涉及以下阶段: (1)阶段 (2)状态 (3)决策与策略 (4)状态转移方程 (5)指标函数 (6)基本
  • CANoe:环境变量vs系统变量的区别

    千次阅读 2022-01-11 18:25:14
    功能上两者没有区别,都相当于全局变量,方便软件数据交互;优先使用系统变量

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 128,021
精华内容 51,208
关键字:

决策变量

友情链接: IOtoTTLconverter.zip