精华内容
下载资源
问答
  • matlab开发-多变量分类在统计工具箱中的应用。网络研讨会“生命科学多变量分类与统计工具箱”中的文件
  • Java变量分类

    千次阅读 2019-05-09 14:09:16
    数值型变量的默认值是0,布尔型变量的默认值是false,引用类型变量的默认值是null 1)实例变量: -作用域与对应实例的生存范围相同 -访问修饰符可以修饰实例变量 2)类变量: -作用域与这个类的生存范围...

    本篇介绍对初入门的java小白很有用。

    1.以数据类型为依据划分:

    在这里插入图片描述

    1.1 8种基本数据类型 (4种整型+2种浮点型+1种字符型+1种逻辑型)

    1)四种整型:

    byte      1 字节     -128~127 
    short     2 字节     -32768~32767 
    int       4 字节     -2^31~2^31-1
    long      8 字节     -2^63~2^63-1
    

    2)两种浮点型:

    float     4 字节     32位IEEE 754单精度(有效位数6~7位)
    double    8 字节     64位IEEE 754双精度(有效位数15位)
    

    3)一种字符型:

    char      2 字节     整个Unicode字符集
    

    4)一种逻辑型:

    boolean   1 字节     true或者false
    

    1.2 3种引用类型 (类class+接口interface+数组array)

    2.以声明的位置为依据划分:

    在这里插入图片描述

    2.1 成员变量 —— 类里定义的变量,但在方法、构造方法和语句块之外

    实例变量具有默认值。数值型变量的默认值是0,布尔型变量的默认值是false,引用类型变量的默认值是null
    

    1)实例变量:

    -作用域与对应实例的生存范围相同
    -访问修饰符可以修饰实例变量
    

    2)类变量:

    -作用域与这个类的生存范围相同
    -静态变量可以通过:ClassName.VariableName的方式访问
    

    静态变量/静态方法可以通过:ClassName.VariableName的方式访问

    2.2 局部变量 —— 方法、构造方法或语句块里定义的变量

    -访问修饰符不能用于局部变量
    -局部变量是在栈上分配的
    -局部变量没有默认值,所以局部变量被声明后,必须经过初始化,才可以使用
    

    着重强调: 局部变量没有默认值,所以局部变量被声明后,必须经过初始化,才可以使用

    2.2.1 形参 —— 定义方法签名时定义的局部变量

    -作用域在整个方法内有效
    

    2.2.2 方法局部变量 —— 方法体内定义的局部变量

    -作用域是从定义该变量的地方生效,到该方法结束时失效
    

    2.2.3 代码块局部变量 —— 代码块中定义的局部变量

    -作用域从定义该变量的地方生效,到该代码块结束时失效
    
    展开全文
  • 在静态中的决策变量分类 许多基于决策变量分类的MOEAs在静态MOPs上都取得了成功,决策变量扰动会产生大量个体用于分类,并成比例地消耗大量适应性评估。此策略对于静态MOPs效果很好,在静态MOPs中,决策变量的类别...

    阅读论文:A Dynamic Multiobjective Evolutionary Algorithm
    Based on Decision Variable Classification

    (Zhengping Liang , Tiancheng Wu, Xiaoliang Ma, Zexuan Zhu , Member, IEEE,and Shengxiang Yang , Senior Member, IEEE)
    这是2020年发布在IEEE上的一篇文章,主要讲的是基于决策分类的进化算法来解决动态多目标优化问题(DMOPs),由于本人也是才接触多目标进化没多久,学术功底有限,如果有不正确的地方欢迎批评指正!

    前言

    首先提出两个问题
    1、什么是动态多目标优化问题(DMOPs)?
    具有多个互相冲突且随着时间变化的多目标优化问题
    2、动态多目标优化问题和多目标优化问题之间有什么区别呢?
    动态=Dynamic 优化问题是指其目标函数不仅与决策变量有关,而且还会随着时间(环境)动态变化。
    定义多目标问题(MOP)
    在这里插入图片描述
    定义动态多目标问题(DMOP)
    在这里插入图片描述
    X = (x1,x2,…xnt)代表nt维的决策变量向量,主要是新增加了t:离散的时间实例,fmt(x,t)表示x在时间t的第mt个目标函数。nt和mt的值都会随时间变化。F(x,t)代表时间t评估解x的目标函数向量;p和q分别是不等式约束和等式约束的个数;gi(x,t)代表第i个不等式约束;Ωt代表可行的时间空间;

    Abstract–摘要

    现状:目前提出了许多动态多目标进化算法(DMOEAs)来解决DMOPs,主要是通过将多样性引入方法或预测方法与常规多目标进化算法相结合来解决。维持种群收敛性和分布性(Convergence and Diversity)的良好平衡对于DMOEAs的性能至关重要。

    解决方案:提出了一种基于决策变量分类的DMOEA(DMOEA-DVC)。 DMOEA-DVC在静态进化和变化响应阶段分别将决策变量分为两个和三个不同的组。在静态进化中,两个决策变量组使用两种不同的交叉算子来加速收敛,同时保持良好的多样性。在变化响应中,DMOEA-DVC分别通过保持,预测和分布性引入策略来重新初始化三个决策变量组。

    实验结果:在33个基准DMOPs上将DMOEA-DVC与其他六个典型的DMOEAs进行了比较。实验结果表明,DMOEA-DVC的总体性能优于或类似于所比较的算法。

    Introduction–引言

    • 从MOEAs 到 DMOEAs遇到的问题
      多目标进化算法(MOEAs)在各种静态多目标优化问题(MOPs)上都取得了成功。但是,由于在动态环境中缺少快速的变化响应机制,在DMOPs中它们往往会失败。
    • 解决方法
      为了解决DMOPs,近年来已经提出了许多动态MOEAs(DMOEAs)。它们大部分可以被分为多样性引入方法(Diversity introduction approaches)和预测方法(prediction approaches)。

    Diversity introduction approaches–多样性引入方法

    多样性引入方法将一定比例的随机或突变个体引入进化种群以增加种群多样性。多样性的增加可以促进算法更好地适应新环境。但是,由于这些算法主要依靠静态进化搜索来找到引入多样性之后的最优解集,因此收敛速度可能会变慢

    prediction approaches–预测方法

    预测方法采用预测模型来预测在变化的环境中有希望的种群。可以大大提高种群收敛性。然而,大多数预测模型需要一个训练周期,在训练周期中预测模型的性能不能令人满意

    主要问题

    都没有考虑决策变量的不同特征。他们倾向于以相同的方式探索所有决策变量,这在平衡种群多样性和收敛性方面效率较低。

    主要亮点(idea)

    提出了基于决策变量分类(DMOEA-DVC)的DMOEA。分别在静态进化和变化响应阶段,使用两种决策变量分类方法将决策变量分为两个和三个不同的组。根据决策变量分类,将不同的进化算子和变化响应策略相应地应用于不同的组,以增强种群的分布性和收敛性。

    1. 在静态进化和变化响应阶段分别使用两种不同的决策变量分类方法,使算法能够更有效地探索不同的决策空间。
    2. 在静态进化中,引入了一种新的子代生成策略,该策略通过对两种不同类型的决策变量使用特定的交叉算子产生子代来加快种群收敛速度,同时保持算法的种群多样性。
    3. 在变化响应中,提出了一种保持,预测和多样性引入相结合的混合响应策略来处理三种类型的决策变量,从而在不同的动态环境中实现更好的适应性。

    Background–背景

    A、DMOP基础

    基于动态帕累托支配找到动态帕累托最优解或动态帕累托前沿面

    1. 定义1(动态帕累托支配):在时间t给出两个候选解x和y(x,y∈Ω),称x支配y,写为x(t)≺y(t),当且仅当
      在这里插入图片描述
    2. 定义2(动态帕累托最优解集):在时间t的一个动态帕累托最优解集记为PS(t),其中包括所有不被其他解支配的解,如下:在这里插入图片描述
    3. 定义3(动态帕累托前沿面):在时间t的一个动态帕累托最优面记为PF(t),是PS(t)中的解在目标函数空间中的映射,如下:
      在这里插入图片描述
    4. 定义4(多最优值变量):给定一个决策变量i,若PS(t)中存在两个解x,y,并且xi≠yi,xi,yi分别指x,y在决策变量i上的值,则称i有多个最优值,是一个多最优值变量。
    5. 定义5(单最优值变量):给定一个决策变量i,对于PS(t)中任意两个解x,y,他们对应的决策变量i值是一样的,即xi=yi,则称i有单个最优值,是一个单最优值变量。

    根据PF(t)和PS(t)的动态特性,将DMOP分为四种类型

    • 类型I: PS(t)随时间变化,而PF(t)是固定的。
    • 类型II: PS(t)和PF(t)都随时间变化。
    • 类型三:PS(t)是固定的,PF(t)随时间变化。
    • 类型IV: PS(t)和PF(t)都是固定的,但是随着时间的推移问题会改变。

    B、动态多目标进化算法

    1. 动态多目标算法(多样性引入)

    通过看下面这个表格就非常直观,最终通过引入多样性方法可以防止种群陷入局部最优,并且易于实施。在这里插入图片描述

    2. 动态多目标算法之(基于预测的方法)

    在这里插入图片描述
    其中基于预测的方法中,也有很多在PPS算法的基础上,进行一些改进,最终也可以显示出提高收敛速度的能力。

    C、决策变量分类方法

    通过结合多样性引入和基于快速预测的方法来利用两者的优点,提出了一种增强的变化响应策略。

    多样性引入或预测方法可以被视为搜索决策变量最优值的概率模型,大多数现有的DMOEAs都假定所有决策变量都处于相同的概率分布下。在实际的DMOPs中,决策变量的概率分布可能会发生很大变化。通过决策变量分类,可以将决策变量分为不同的组,然后可以将特定的概率搜索模型应用于相应的变量组以获得更好的解。

    在静态中的决策变量分类

    许多基于决策变量分类的MOEAs在静态MOPs上都取得了成功,决策变量扰动会产生大量个体用于分类,并成比例地消耗大量适应性评估。此策略对于静态MOPs效果很好,在静态MOPs中,决策变量的类别不变,并且仅需要分类一次。

    在动态中的决策变量分类

    • Woldesenbet和Yen [51]通过对目标空间变化的平均敏感度来区分决策变量,并以此为基础来重新安置个体。 该方法对于动态单目标优化问题效果很好,但是不适用于DMOP。
    • Xu提出了一种针对DMOP的协作式协同进化算法,其中决策变量被分解为两个子组件,即相对于环境变量t不可分离和可分离的变量。应用两个种群分别协同优化两个子组件。文献中提出的算法在基于环境敏感性可分解决策变量的DMOP上具有优越性,但是,在许多DMOP中可能并非如此。

    在这里插入图片描述

    Framework–框架

    在这里插入图片描述
    具体过程:初始化父代种群P,然后从父代种群中选出一个子代种群P′和一个非支配解的档案A。在每次迭代中,在使用进化算子生成每个子代个体之前,对P使用决策变量分类方法,并将结果记录在布尔向量flag_multi中,其中每个元素指示相应的决策变量是多最优还是单最优变量。DMOEA-DVC可检测到进化过程中的任何潜在变化,如果检测到变化,则将使用变化响应策略,否则,将对个体的不同类型决策变量使用不同的交叉算子生成子代个体,生成子代个体后,更新P和A。在每一次迭代的末尾,从当前父代种群和子代种群的混合中选择一个新的子代种群和一个新的档案。

    A、ClassificationSO–决策变量分类

    在静态进化阶段(算法1第6行)使用决策变量分类,以增加生成高质量子代个体的可能性。
    目标:找到在PF上分布均匀的种群,并尽快收敛到PF
    方法:探索种群中非支配个体的邻居是很有效的
    问题:如果子代的所有决策变量都是在非支配个体的决策变量附近生成的,则种群会陷入局部最优,为了避免这种情况,子代个体中的多最优值变量值应远离父代个体产生。

    • 子代中的多最优变量值应该远离非支配个体产生,以保持良好的多样性。
    • 对于单最优变量,子代个体中的生成值应尽可能接近父代个体中的相应值,以加速收敛。

    关键问题:如何确定多最优值变量和单最优值变量

    提出了一种区分多最优值变量和单最优值变量的近似方法。

    在DMOP中,目标函数可能在某些决策变量上相互冲突。如果两个目标函数在决策变量上发生冲突,则该决策变量被视为具有多个最优值。(这个也很好理解,如果在X=C时存在两个最优的解,那么这两个目标相互冲突)

    因此使用斯皮尔曼等级相关系数(SRCC)来衡量一个变量和一个目标函数之间的相关性。
    在这里插入图片描述
    如果第i个变量的两个目标函数之间存在明显的相关冲突(正相关与负相关),即max(ri1(t),ri2(t),…,rim(t))>0.5α并且min(ri1(t),ri2(t),…,rim(t))<-0.5α(α是预定义的阈值),则将第i个决策变量分类为多最优值变量。否则,第i个决策变量将被视为单最优值变量。

    在这里插入图片描述
    首先计算每个决策变量i与每个目标j之间的SRCC值,然后根据SRCC值将决策变量分为多最优值变量(第10行)或单最优值变量(第12行),然后采取上述对应方案。

    Classification–变化响应中决策变量分类

    在大多数现有的DMOPs中,考虑到环境变化,可以将决策变量分类为相似,可预测和不可预测的变量。

    • 相似 —无需重新初始化
    • 可预测 ----决策变量应基于预测进行重新初始化
    • 不可预测 -----可以通过引入多样性进行重新初始化

    非参数t-test用于评估决策变量的变化与环境变化的相关性

    在这里插入图片描述
    t-testi <=β,其中β是预定义的阈值,则第i个变量被视为无明显变化,也就是说,它是相似的变量,不需要重新初始化。如果t-testi>β,则第i个决策变量被认为具有显著变化,即变量i是可预测的或不可预测的,需要重新初始化。

    上面公式已经区分了相似或者可预测和不可预测的情况,现在我们继续区分到底是可预测情况还是不可预测情况。如下图所示

    将x_center的第i个决策变量置为预测值而其他决策变量保持不变来生成n个试验个体x_trial[i],如果x_trial [i]支配x_center,则接受第i个决策变量的预测,并将第i个决策变量分类为可预测变量,并使用基于预测的方法重新初始化。否则,第i个决策变量是不可预测的,并使用基于多样性引入的方法重新初始化
    在这里插入图片描述
    下面就展示算法3 的伪代码
    在这里插入图片描述
    首先,分别根据(7)和(8)计算t-test和x_center。其次,使用预测模型来预测新的个体x_p(确切的预测模型在第IV -C节中进行了描述)。第三,产生试验个体(第6-14行)并进行评估。如果试验个体支配质心个体,则该试验个体的相应决策变量的预测是正确的,否则该预测是不可接受的。

    B、环境选择

    • DMOEA-DVC和SGEA[33]使用相同的选择方法,适应度函数F(i)表示支配个体xi的个体数目
      在这里插入图片描述

    • 如果存档A中个体少于N则从种群中挑选最好的个体进P’,如果刚好相等,就将A中所有个体转入P’,如果存档A中个体多了就从种群中挑选最远的个体进P’.

    C、ChangeResponse --变化响应

    定义的三种类型的决策变量分别使用保持,多样性引入和预测方法。

    • 保持:如果决策变量是相似变量,则DMOEA-DVC会在变化响应中保持该变量的值不变。
    • 多样性引入:如果决策变量是不可预测的变量,则对该变量应用随机重新初始化策略。变量更新如下:
      在这里插入图片描述
      其中,Li(t)和Ui(t)分别表示在时间t处第i个变量的上限和下限,rand是[0,1]中的随机值。
    • 预测方法:如果将决策变量分类为可预测变量,则使用具有较短训练周期的卡尔曼滤波器[25],[33]通过中心预测将其重新初始化。
    • 在这里插入图片描述
      下面就是算法4的伪代码
      在这里插入图片描述

    D、GenerateOffspring --子代生成

    模拟二进制交叉(SBX)或DE交叉算子用于根据决策变量是否为多最优值变量来生成决策变量的值。SBX和DE交叉算子是MOEAs中两个常用的交叉算子。
    在这里插入图片描述
    图1展示了这两个交叉算子生成的子代解的分布示例。SBX生成的子代解更接近父代,而DE交叉生成的子代解远离父代。应该在远离父代的位置生成多最优值变量,在这种情况下应使用DE交叉算子。而单最优值变量应在父代附近生成,即选择SBX。
    在这里插入图片描述
    这个伪代码已经很简单了,如果是多最优值变量就选择DE交叉算子,否则,单优值变量选择SBX交叉算子。

    E、种群更新

    DMOEA-DVC使用与SGEA相同的稳态种群更新策略。种群更新策略在父种群P和档案A中都执行。新生成的子代个体y用于替换P中最差的个体,同时更新A。

    Conclusion

    • 本文提出了一种基于决策变量分类的DMOEA,即DMOEA-DVC。对静态优化阶段和变化响应阶段的决策变量进行了分类。采用不同的策略来生成不同类型变量的值,以达到种群多样性和收敛性的良好平衡。
    • DMOEA-DVC与其他六种最先进的DMOEA在33个基准DMOP上进行了比较。实验结果表明了DMOEA-DVC算法的有效性。

    ps:上面大部分也是根据原文来进行总结以及理解的,由于本人也是才接触多目标进化没多久,学术功底有限,如果有不正确的地方欢迎批评指正!同时也借鉴了这些博客,如果想要了解,可以看
    https://blog.csdn.net/u013555719/article/details/106856234?
    同时这篇文章提到的几种动态多目标的算法,DCOEA、PPS、SGEA、有兴趣大家可以搜索了解一下。
    同时我目前的微信公众号也是“研行笔录”,后期我也会持续更新,如果有兴趣的话,可以点个关注,不迷路!
    在这里插入图片描述

    展开全文
  • 论文研读-基于变量分类的动态多目标优化算法

    千次阅读 热门讨论 2020-06-19 14:48:44
    论文研读-基于变量分类的动态多目标优化算法 A Dynamic Multiobjective Evolutionary Algorithm Based on Decision Variable Classification 觉得有用的话,欢迎一起讨论相互学习~ 此篇文章为 Liang Z , Wu T , Ma ...

    论文研读-基于变量分类的动态多目标优化算法

    A Dynamic Multiobjective Evolutionary Algorithm Based on Decision Variable Classification

    觉得有用的话,欢迎一起讨论相互学习~

    我的微博我的github我的B站

    论文研读系列文章

    论文研读-多目标自适应memetic算法

    论文研读-基于决策变量分析的大规模多目标进化算法

    论文研读-多目标优化中的多源选择迁移框架

    论文研读-基于决策变量聚类的大规模多目标优化进化算法

    论文研读-基于变量分类的动态多目标优化算法

    • 此篇文章为 Liang Z , Wu T , Ma X , et al. A Dynamic Multiobjective Evolutionary Algorithm Based on Decision Variable Classification[J]. IEEE Transactions on Cybernetics, 2020, PP(99):1-14. 的论文学习笔记,只供学习使用,不作商业用途,侵权删除。并且本人学术功底有限如果有思路不正确的地方欢迎批评指正!

    Abstract

    • 目前许多动态多目标进化算法DMOEAS主要是将多样性引入或预测方法与传统的多目标进化算法相结合来解决动态多目标问题DMOPS。其中种群的多样性和算法的收敛性的平衡十分重要。
    • 本文提出了基于决策变量分类的动态多目标优化算法DMOEA-DCV
    • DMOEA-DCV将在静态优化阶段将决策变量分成两到三个不同的组,并且在相应阶段分别进行改变。在静态优化阶段,两个不同分组的决策向量使用不同的交叉算子以加速收敛保持多样;在改变反馈阶段,DMOEA-DVC分别采用维护、预测和多样性引进策略重新初始化决策变量组。
    • 最后在33个DMOP benchmark上和先进的DMOEA进行了比较,取得了更优异的结果。

    Introduction

    • DMOPs就是解决随时间变化的多目标优化问题。传统的DMOEA算法强调能够随着环境的改变动态响应,主流的算法可以分为 多样性引进策略diversity introduction approaches[1],[19]-[24]和预测方法 prediction approaches.[25]-[33]

    对于diversity introduction approaches的方法:

    • 优点: Diversity introduction approaches introduce a certain proportion of randomized or mutated individuals into the evolution population once a change occurs to increase the population diversity. The increase of diversity can facilitate the algorithms to better adapt to the new environment.
    • 缺点: However, since these algorithms mainly rely on the static evolution search to find the optimal solution set after diversity introduction, the convergence might be slowed down.

    对于Prediction approaches的方法:

    • 优点: 在变换的环境中提升收敛性能
    • 缺点:预测模型性能受限

    目前存在的问题

    • 目前的方法不care决策变量之间的差异,使用相同的方式进行考虑,对于平衡种群的多样性和收敛性效率低。

    提出基于变量分类的DMOEA(DMOEA-DVC)

    • DMOEA-DVC特点在于集合了diversity introduction, fast prediction models和decision variable classification methods, 多样性引入和决策变量分类可以抵消彼此固有的缺陷。
    • 静态优化时采用变量分类策略,改变相应阶段时对不同的变量采用不同的进化算子和响应机制。

    对比算法

    • DNSGA-II-B [1]
    • population prediction strategy (PPS) [25]
    • MOEA/D-KF [26]
    • steady state and generational evolutionary algorithm (SGEA) [33]
    • Tr-DMOEA [35]
    • DMOEA-CO [52]

    benchmark

    • five FDA benchmarks [4]
    • three dMOP benchmarks [19]
    • two DIMP benchmarks [41]
    • nine JY benchmarks [42]
    • 14 newly developed DF benchmarks [43].

    贡献

    • 两种决策变量分类方法
    • 静态优化时,对两种变量采用不同的进化方式
    • change responce时,使用保持,预测和引入多样性混合响应策略以应对三种不同的决策变量。

    BACKGROUND AND RELATED WORK

    Basics of DMOP

    动态帕累托最优解和动态帕累托最优解集

    • 基本上就是加上了时序t的概念的支配

    多最优变量与单最优变量

    • 注意这里的exist和any的表述!!
    • 换言之,如果一个决策变量是单最优变量,那么PS()(t)上的这个变量具有相同的值,而如果这个决策变量是多最优变量,那么PS(t)上的这个变量具有不同的值

    DMOP问题的类型

    DMOEA

    • DMOEA基本上可以分为两类:引入多样性diversity introduction基于预测predictionbased approaches.

    diversity introduction

    • diversity introduction 考虑的是当环境改变发生时,引入随机的或变异的个体来避免种群多样性的损失。
    • Deb[1] DMOEAs : proposed two DMOEAs (DNSGAII- A and DNSGA-II-B) based on NSGA-II [7]. Once a change is detected, DNSGA-II-A randomly reinitializes 20% of the individuals, while DNSGA-II-B randomly mutates 20% of the individuals.
    • Goh and Tan [19] dCOEA: introduced a competitive-cooperative coevolutionary algorithm (dCOEA) where some new individuals are generated randomly to enhance the diversity of the population when the environment changes.
    • Helbig and Engelbrecht [20] HDVEPSO: proposed a heterogeneous dynamic vector-evaluated particle (非均匀动态矢量评估粒子) swarm optimization (HDVEPSO) algorithm by combining heterogeneous particle swarm optimization (HPSO) [21], [22] and dynamic vector-evaluated particle swarm optimization (DVEPSO) [23]. HDVEPSO randomly reinitializes 30% of the swarm particles after the objective function changes.
    • Martínez-Peñaloza and Mezura-Montes [24] combined generalized differential evolution (DE) along with an artificial immune system to solve DMOP (Immune-GDE3).
    • 总结,使种群不易陷入局部最优并且易于实现。

    predictionbased approaches

    • 为了使种群易于适应变换后的新的环境,提出了预测的方法
    • Zhou et al. [25] presented a PPS to divide the population into a center point and a manifold 中心和支管. The proposed method uses an autoregression (AR) 自回归 model to locate the next center point and uses the previous two consecutive manifolds 连续不断的支管 to predict the next manifold. The predicted center point and manifold make up a new population more suitable to the new environment.
    • Muruganantham et al. [26] applied a Kalman filter [44] 卡尔曼滤波器 in the decision space to predict the new Pareto-optimal set. They also proposed a scoring scheme to decide the predicting proportion. 评分机制
    • Hatzakis and Wallace [27] 自回归和边界点
    • Peng [28] 改进 exploration 和 exploitation 算子
    • Wei and Wang [29] hyperrectangle prediction (超矩形预测)
    • Ruan [30] gradual search (逐步搜索)
    • Wu et al. [31] reinitialized individuals in the orthogonal direction (正交方向) to the predicted direction of the population in change response.
    • Ma et al. [32] utilized a simple linear model to generate the population in the new environment.
    • Jiang and Yang [33] introduced an SGEA, which guides the search of the solutions by a moving direction from the centroid of the nondominated solution set to `the centroid of the entire population. The step size of the search is defined as the Euclidean distance between the centroids of the nondominated solution set at time steps (t−1) and t.
    • 总结:预测的方法提高了算法的收敛效率
    • 本文通过结合多样性引入和基于快速预测的方法来利用两者的优点,提出了一种增强的变化响应策略。

    Decision Variable Classification Methods

    • 无论是多样性引入还是预测方法都可以被视为在搜索最优解时的概率模型。大多数现有的DMOEA都假定所有决策变量都在相同的概率分布下。 但是,在实际的DMOP中,决策变量的概率分布可能会发生很大变化。 通过决策变量分类,可以将决策变量分为不同的组,然后可以将特定的概率搜索模型应用于相应的变量组以获得更好的解决方案。

    基于扰动的变量分类

    在静态问题中

    • 例如,在[45]-[48]中通过决策变量扰动实现了决策变量分类。 决策变量扰动会产生大量个体进行分类,并成比例地消耗大量适应性评估。 该策略对于静态MOP效果很好,在静态MOP中,决策变量的类别不变,并且仅需要分类一次。

    在动态问题中

    • 决策变量的分类经常变化,因此需要更多次数的分类和评价次数
    • 很少有方法将决策变量分类的方法运用到动态问题中,现有的静态问题的方法不太合适。
    • Woldesenbet和Yen [51]通过对目标空间变化的平均敏感度来区分决策变量,并以此为基础来重新安置个体。 该方法对于动态单目标优化问题效果很好,但是不适用于DMOP。
    • Xu[52]提出了一种针对DMOP的协作式协同进化算法,其中决策变量被分解为两个子组件,即相对于环境变量t不可分离和可分离的变量。 应用两个种群分别协同优化两个子组件。 文献[52]中提出的算法在基于环境敏感性可分解决策变量的DMOP上具有优越性,但是,在许多DMOP中可能并非如此。

    本文提出的方法

    • 在本文中,我们提出了一种适用于大多数DMOP的更通用的决策变量分类方法。所提出的方法没有使用额外的目标评估或迭代积累来收集统计信息就实现了准确的分类。特别地,决策变量分类方法使用决策变量和目标函数之间的统计信息,该统计信息在每次环境变化之后的第一次迭代中可用,也就是说,不需要消耗额外的适应性评估。值得强调的是,本文提出的分类是区分DMOP中决策变量分布(即单个最优值或多个最优最优值)的首次尝试。从搜索开始,就采用了不同的策略来采样不同的决策变量。这样,决策变量可以在迭代过程中尽可能服从PS(t)的分布,从而更好地覆盖和逼近PS(t)。

    提出的框架和实现


    变量分类Decision Variable Classification

    • 文中提出的变量分类分为两种,一种对应算法1 line 6 ,静态优化时的变量分类,一种对应算法1 line9 ,动态优化时的变量分类。

    Decision Variable Classification in Static Optimization

    首先变量可以被分为single optimal收敛 和multi-optimal多样

    • 一句话概括一下:对于single optimal的维度应该和最好的个体越近越好,而multi-optimal的维度则应当越远越好。否则易陷入局部最优,并且在迭代早期精英策略会导致multi-optimal的维度也向最优解靠拢,影响多样性。

    区分single optimal收敛 和multi-optimal变量

    • 如果目标函数在一个变量上矛盾,则这个变量是multi-optimal的
    • In DMOP, the objective functions could conflict with each other on some decision variables [46], [53]. If two objective functions conflict on a decision variable, the decision variable is deemed to have multiple optimal values.

    具体操作:

    (自我思考)这里需要考虑一个问题,就是当一个变量进行改变时,其他变量也不是相同的,如何去单独考虑一个变量对于整体的变化,如果变量的维度大,如何证明是这个变量而不是其他变量的变化导致目标函数的变化呢?这里解释是在DOMP中,一般只有一个变量是multi的,而其余都是single的,这个解释觉得还可以进一步完善和改进。但是作为节省计算资源而言,这的确是一个比较折中的办法

    使用SRCC来评价变量和目标函数之间的关系

    大体思想是,将种群中所有个体的这个变量从低到高进行排序,然后对种群中这些个体的单个目标值进行进行排序,这两个排序的rank差值就是这个个体的d(i,j,k).然后通过d(i,j,k)来计算r,而当r大于或者小于一个阈值的时候,就意味着变量i和目标j具有正相关或者负相关性

    算法流程

    Decision Variable Classification in Change Response

    • 在DMOP中,决策变量可分为similar ,predictable 和 unpredictable
      • similar 变量:在连续两次环境变化中没有什么变化,环境变化时,不需要重新初始化
      • predictable 变量: 在环境变化中,预测可以带来显著提升,环境变化时,需要通过预测的方式重新初始化
      • unpredictable 变量:预测几乎带来不了提升,环境变化时,通过引入多样性重新初始化
    • 非参数的t检验被用于评价决策变量改变和环境的相关性 ,对于当前第i个变量与上个世代的第i个变量之间的关系可以表示为:

    使用t检验区分变量-相似性与非相似性变量

    对于非相似性变量,判断其是否是可以预测的变量

    • x_center表示种群中所有个体的决策变量的平均值,x_trial[i]表示种群中x_center第i个决策变量经过预测的方法变化后的结果而其余的变量保持不变,如果x_trial[i]能够支配x_center则表示这个第i个决策变量是可以预测的,否则则认为第i个决策变量是不能预测的。

    对于某些问题,预测的方法不可行

    算法流程

    环境选择

    • DMOEA-DVC和SGEA[33]使用相同的选择方法,适应度函数F(i)表示支配个体xi的个体数目
    • 如果存档A中个体少于N则从种群中挑选最好的个体进P’,如果刚好相等,就将A中所有个体转入P’,如果存档A中个体多了就从种群中挑选最远的个体进P’.

    改变响应

    • 对于环境改变后的响应,对于DMOEA-DVC中分类出的三种变量,分别使用maintenance保持,diversity introduction 多样性引入和prediction approach 预测方式三种对决策变量进行处理。

    maintenance 保持

    • 如果变量是相似的则保持不变

    Diversity Introduction

    • 如果变量不可预测

    使用kalman进行预测

    • 如果对预测方式不清楚可以参考[25]和[33]
    • 如果变量可以预测

    生成子代

    • 论文认为SBX生成的子代会离父代很近,因此适合single-optimal的决策变量,而DE生成的子代里父代很远,因此适合multi-optimal的决策变量

    • 总体流程

    个体更新规则

    • 详见[33]

    计算复杂度

    [1] K. Deb, U. V. Rao, and S. Karthik, “Dynamic multi-objective optimization and decision-making using modified NSGA-II: A case study on hydro-thermal power scheduling,” in Proc. EMO, vol. 4403, 2007, pp. 803–817.
    [4] M. Farina, K. Deb, and P. Amato, “Dynamic multi-objective optimization problems: Test cases, approximations, and applications,” IEEE Trans. Evol. Comput., vol. 8, no. 5, pp. 425–442, Oct. 2004.
    [19] C.-K. Goh and K. C. Tan, “A competitive-cooperative coevolutionary paradigm for dynamic multi-objective optimization,” IEEE Trans. Evol. Comput., vol. 13, no. 1, pp. 103–127, Feb. 2009.
    [20] M. Helbig and A. P. Engelbrecht, “Heterogeneous dynamic vector evaluated particle swarm optimization for dynamic multi-objective optimization,” in Proc. IEEE Congr. Evol. Comput. (CEC), 2014, pp. 3151–3159.
    [21] A. P. Engelbrecht, “Heterogeneous particle swarm optimization,” in Proc. Int. Conf. Swarm Intell., 2010, pp. 191–202.
    [22] M. A. M. de Oca, J. Peña, T. Stützle, C. Pinciroli, and M. Dorigo, “Heterogeneous particle swarm optimizers,” in Proc. IEEE Congr. Evol. Comput. (CEC), 2009, pp. 698–705.
    [23] M. Greeff and A. P. Engelbrecht, “Solving dynamic multi-objective problems with vector evaluated particle swarm optimization,” in Proc. IEEE Congr. Evol. Comput. (CEC), 2008, pp. 2917–2924.
    [24] M. Martínez-Peñaloza and E. Mezura-Montes, “Immune generalized differential evolution for dynamic multi-objective optimization problems,” in Proc. IEEE Congr. Evol. Comput. (CEC), 2015, pp. 846–851.
    [25] A. Zhou, Y. Jin, and Q. Zhang, “A population prediction strategy for evolutionary dynamic multi-objective optimization,” IEEE Trans. Cybern., vol. 44, no. 1, pp. 40–53, Jan. 2014.
    [26] A. Muruganantham, K. C. Tan, and P. Vadakkepat, “Evolutionary dynamic multi-objective optimization via Kalman filter prediction,” IEEE Trans. Cybern., vol. 46, no. 12, pp. 2862–2873, Dec. 2016.
    [27] I. Hatzakis and D. Wallace, “Dynamic multi-objective optimization with evolutionary algorithms: A forward-looking approach,” in Proc. ACM Conf. Genet. Evol. Comput., 2006, pp. 1201–1208.
    [28] Z. Peng, J. Zheng, J. Zou, and M. Liu, “Novel prediction and memory strategies for dynamic multi-objective optimization,” Soft Comput., vol. 19, no. 9, pp. 2633–2653, 2014.
    [29] J. Wei and Y. Wang, “Hyper rectangle search based particle swarm algorithm for dynamic constrained multi-objective optimization problems,” in Proc. IEEE Congr. Evol. Comput. (CEC), 2012, pp. 259–266.
    [30] G. Ruan, G. Yu, J. Zheng, J. Zou, and S. Yang, “The effect of diversity maintenance on prediction in dynamic multiobjective optimization,” Appl. Soft Comput., vol. 58, pp. 631–647, Sep. 2017.
    [31] Y. Wu, Y. Jin, and X. Liu, “A directed search strategy for evolutionary dynamic multi-objective optimization,” Soft Comput., vol. 19, no. 11, pp. 3221–3235, 2015.
    [32] Y. Ma, R. Liu, and R. Shang, “A hybrid dynamic multi-objective immune optimization algorithm using prediction strategy and improved differential evolution crossover operator,” in Proc. Neural Inf. Process., vol. 7063, 2011, pp. 435–444.
    [33] S. Jiang and S. Yang, “A steady-state and generational evolutionary algorithm for dynamic multi-objective optimization,” IEEE Trans. Evol. Comput., vol. 21, no. 1, pp. 65–82, Feb. 2017.
    [35] M. Jiang, Z. Huang, L. Qiu, W. Huang, and G. G. Yen, “Transfer learning based dynamic multiobjective optimization algorithms,” IEEE Trans. Evol. Comput., vol. 22, no. 4, pp. 501–514, Aug. 2018, doi: 10.1109/TEVC.2017.2771451.
    [41] W. Koo, C. Goh, and K. C. Tan, “A predictive gradient strategy for multi-objective evolutionary algorithms in a fast changing environment,” Memetic Comput., vol. 2, no. 2, pp. 87–110, 2010.
    [42] S. Jiang and S. Yang, “Evolutionary dynamic multi-objective optimization: Benchmarks and algorithm comparisons,” IEEE Trans. Cybern., vol. 47, no. 1, pp. 198–211, Jan. 2017.
    [43] S. Jiang, S. Yang, X. Yao, and K. C. Tan, “Benchmark functions for the CEC’2018 competition on dynamic multiobjective optimization,” Centre Comput. Intell., Newcastle Univ., Newcastle upon Tyne, U.K., Rep. TRCEC2018, 2018.
    [44] A. Muruganantham, Y. Zhao, S. B. Gee, X. Qiu, and K. C. Tan, “Dynamic multi-objective optimization using evolutionary algorithm with Kalman filter,” Proc Comput. Sci., vol. 24, pp. 66–75, Nov. 2013.
    [45] X. Zhang, Y. Tian, R. Cheng, and Y. Jin, “A decision variable clustering-based evolutionary algorithm for large-scale many-objective optimization,” IEEE Trans. Evol. Comput., vol. 22, no. 1, pp. 97–112, Feb. 2018.
    [46] X. Ma et al., “A multiobjective evolutionary algorithm based on decision variable analysis for multiobjective optimization problems with largescale variables,” IEEE Trans. Evol. Comput., vol. 20, no. 2, pp. 275–298, Apr. 2016.
    [47] C. K. Goh, K. C. Tan, D. S. Liu, and S. C. Chiam, “A competitive and cooperative co-evolutionary approach to multi-objective particle swarm optimization algorithm design,” Eur. J. Oper. Res., vol. 202, no. 1, pp. 42–54, 2010.
    [48] M. N. Omidvar, X. Li, Y. Mei, and X. Yao, “Cooperative co-evolution with differential grouping for large scale optimization,” IEEE Trans. Evol. Comput., vol. 18, no. 3, pp. 378–393, Jun. 2014.
    [49] J. Sun and H. Dong, “Cooperative co-evolution with correlation identification grouping for large scale function optimization,” in Proc. Int. Conf. Inf. Sci. Technol. (ICIST), 2013, pp. 889–893.
    [50] M. N. Omidvar, X. Li, and X. Yao, “Cooperative co-evolution with delta grouping for large scale non-separable function optimization” in Proc. IEEE Congr. Evol. Comput., 2010, pp. 1762–1769.
    [51] Y. G. Woldesenbet and G. G. Yen, “Dynamic evolutionary algorithm with variable relocation,” IEEE Trans. Evol. Comput., vol. 13, no. 3, pp. 500–513, Jun. 2009.
    [52] B. Xu, Y. Zhang, D. Gong, Y. Guo, and M. Rong, “Environment sensitivity-based cooperative co-evolutionary algorithms for dynamic multi-objective optimization,” IEEE/ACM Trans. Comput. Biol. Bioinform., vol. 15, no. 6, pp. 1877–1890, Nov./Dec. 2017.
    [53] S. Huband, P. Hingston, L. Barone, and L. While, “A review of multiobjective test problems and a scalable test problem toolkit,” IEEE Trans. Evol. Comput., vol. 10, no. 5, pp. 477–506, Oct. 2006.
    [54] B. Student, “The probable error of a mean,” Biometrika, vol. 6, no. 1, pp. 1–25, 1908.
    [55] D. Wang, H. Zhang, R. Liu, W. Lv, and D. Wang, “t-test feature selection approach based on term frequency for text categorization,” Pattern Recognit. Lett., vol. 45, no. 1, pp. 1–10, 2014.
    [56] B. Chen, W. Zeng, Y. Lin, and D. Zhang, “A new local search based multi-objective optimization algorithm,” IEEE Trans. Evol. Comput., vol. 19, no. 1, pp. 50–73, Feb. 2015.
    [57] C. Chen and L. Y. Tseng, “An improved version of the multiple trajectory search for real value multi-objective optimization problems,” Eng. Optim., vol. 46, no. 10, pp. 1430–1445, 2014.
    [58] C. Rossi, M. Abderrahim, and J. C. Díaz, “Tracking moving optima using Kalman-based predictions,” Evol. Comput., vol. 16, no. 1, pp. 1–30, 2008.

    展开全文
  • 数据分析中的变量分类

    千次阅读 2017-08-01 10:50:00
    数据分析工作每天要面对各种各样的数据,每种数据都有其特定的含义、使用范围和分析方法,同一个数据在不同环境下的意义也不一样,因此我们想要选择...每个变量都有变量值,变量值就是我们分析的内容,它是没有含义...

    数据分析

    数据分析工作每天要面对各种各样的数据,每种数据都有其特定的含义、使用范围和分析方法,同一个数据在不同环境下的意义也不一样,因此我们想要选择正确的分析方法,得出正确的结论,首先要明确分析目的,并准确理解当前的数据类型及含义。统计学中的变量指的是研究对象的特征,我们有时也称为属性,例如身高、性别等。每个变量都有变量值,变量值就是我们分析的内容,它是没有含义的,只是一个参与计算的数字,所以我们主要关注变量的类型,不同的变量类型有不同的分析方法。

    变量主要是用来描述事物特征,那么按照描述的粗劣,有以下两种划分方法:

    按基本描述划分

    【定性变量】:也称为名称变量、品质变量、分类变量,总之就是描述事物特性的变量,目的是将事物区分成互不相容的不同组别,变量值多为文字或符号,在分析时,需要转化为特定含义的数字。

    定性变量可以再细分为:

    有序分类变量:描述事物等级或顺序,变量值可以是数值型或字符型,可以进而比较优劣,如喜欢的程度:很喜欢、一般、不喜欢

    无序分类变量:取值之间没有顺序差别,仅做分类,又可分为二分类变量和多分类变量 二分类变量是指将全部数据分成两个类别,如男、女,对、错,阴、阳等,二分类变量是一种特殊的分类变量,有其特有的分析方法。 多分类变量是指两个以上类别,如血型分为A、B、AB、O

    【定量变量】:也称为数值型变量,是描述事物数字信息的变量,变量值就是数字,如长度、重量、产量、人口、速度和温度。

    定量变量可以再细分

    连续型变量:在一定区间内可以任意取值,其数值是连续不断的,相邻两个数值可作无限分割,即可取无限个数值。如身高、绳子的长度等。

    离散型变量:值只能用自然数或整数单位计算,其数值是间断的,相邻两个数值之间不再有其他数值,这种变量的取值一般使用计数方法取得。

    按照精确描述划分

    【定类变量】

    测量事物类别或属性,各类支架没有顺序或等级,实际上也就是上面说的无序分类变量,所包含的数据信息很少,只能计算频数和频率,是最低层次的一种变量

    【定序变量】

    测量事物之间的等级或顺序,就是上述的有序分类变量,由于它的变量值可以是数值型或字符型,并且可以反映等级之间的优劣,除了可以计算频数和频率之外,还可以计算累计频率,因此数据包含的信息多于定类变量。

    【定距变量】

    测量事物的类别或顺序之间的间距,它不但具有定类和定序变量的特点,还能计算类别之间的差距,可以进行加减运算,数据包含的信息高于前两种

    【定比变量】 测量事物类别比值,和定距变量相比,它不但可以进行加减运算,还可以进行乘除运算,包含的数据信息最多,是最高级的变量。

    上面这四种变量可以从浅到深精确的描述事物,四种变量级别从低到高,高层次变量可以向低层次转化,代价是损失部分数据信息,但是低层次变量无法向高层次转化,这会得出错误结果。

    按照变量的取值划分

    前面两种分类方法都是从变量对事物的描述角度出发进行分类,一旦对事物描述确定下来,那么变量的取值也就相应确定下来了,比如定性变量的取值只能是某属性下的计数,比如人数、客户数等,因此只能取特定的值,数值是离散的。而定量变量可以取某属性下的任意值,变量值即可连续也可离散,比如身高、体重、销售额等。连续型数值和离散型数值的分析方法是不同的,因此从统计学角度,又经常划分为连续型变量和定性变量(分类变量)

    关于变量的类型及取值方法,可以归纳为下表

    变量


    本文作者:佚名

    来源:51CTO

    展开全文
  • java——变量分类

    千次阅读 热门讨论 2014-07-18 14:48:35
    总之,如果按照声明位置划分的变量类型中,局部变量声明后必须要赋值以后才能使用;而成员变量声明后可以不赋值,系统有默认值。如果按所属的数据类型划分,基本类型数据只占用内存中的一块内存;而引用类型占用的是...
  • 在心理学和其他社科研究领域,研究者能熟练地进行连续变量的中介效应分析,但面对自变量、中介变量或 ( 和 ) 因变量 为类别变量的中介效应分析,研究者往往束手无策。在阐述类别自变量中介分析方法的基础上,我们...
  • 1.什么是变量(内存当中一片区域的地址)? 变量即在程序运行过程中它的值是允许改变的量 变量是用一串固定的字符来标示不固定的值的一种方法 变量是一种使用方便的占位符,用于引用计算机内存地址,该地址可以存储...
  • Linux Bash Shell编程(四):变量(上) 变量分类与相关操作 上一节,我们了解了Bash中的重定向以及特殊符号,从本节开始我们来一起探索Bash中变量的奥秘。本节我们先来了解下Bash中变量的基本知识以及对变量处理的...
  • S7-200变量分类

    千次阅读 2018-09-09 17:48:49
    V和M基本上功能一样,但是V的内存区域大,所以一般用V存放模拟量数值和运算中间量,而M区域一般用数字量的...5、V和M由于符号上的区别,习惯上把它们的用途作一些分类,比如M主要用来作位变量,这样程序的可读性就更大
  • 变量分类及其介绍

    千次阅读 2018-06-01 11:30:16
    变量的静态储存方式是指,变量在定义时就被分配储存空间,直到整个程序结束。例如:全局变量、静态局部变量变量的动态储存方式是指,变量只有在使用时才会被分配储存空间,使用结束后又立马释放掉。例如:函数的...
  • 变量分类

    2017-01-18 15:43:52
    1、变量分类关于变量分类: 1)按照数据类型的不同:基本数据类型(8种) 和 引用数据类型 2)按照声明的位置的不同:成员变量 和 局部变量2、成员变量(属性)和局部变量的区别?成员变量: (1)声明位置:...
  • 机器学习 决策树篇——解决连续变量分类问题

    千次阅读 多人点赞 2020-06-09 00:00:39
    机器学习 决策树篇——解决连续变量分类问题摘要信息熵、条件熵、熵增益、熵增益率的计算GiNi系数、GiNi系数增益的计算python代码连续变量决策树分类案例 摘要 本文通过python实现了连续变量的信息熵、条件熵、熵...
  • 如果分类变量只有两个水平(例如性别,男和女),我们只需要定义一个虚拟变量就可以了,用0表示男,用1表示女。 超过两个水平 当一个分类变量超过两个水平时,我们必须在定义虚拟变量和解释虚拟变量两方面谨慎从事。...
  • UE4蓝图基础分类(1)变量及其类型

    千次阅读 2019-09-07 23:54:10
    变量分类 Slider Range 通过滑动 (  ) 来设置变量值时,变量的大小范围 Value Range 通过直接修改输入框来设置变量值时,变量的大小范围 Replication 是否网络复制 Replication Condition 复制方式
  • 机器学习——特征工程之分类变量

    千次阅读 2019-08-30 16:05:43
    机器学习——特征工程之分类变量前言分类变量的编码1、one-hot 编码2、虚拟编码3、效果编码处理大型分类变量1、特征散列化2、分箱计数总结 前言 关于特征工程,已经对空值、数值型和文本数据的处理做了大致方法的...
  • 统计学当中关于变量分类

    万次阅读 2018-11-29 10:46:18
     统计学中的变量(variables)大致可以分为数值变量(numrical)和分类变量(categorical)。  数值型变量是值可以取一些列的数,这些值对于 加法、减法、求平均值等操作是有意义的。而分类变量对于上述的操作是...
  • 1.数据框中多个变量分类变量,但值是1,2,3,读进去的时候是整数格式。手动一个一个设置太浪费时间,有没有好的办法批量设置? 2.尝试了自写函数 ``` fac(x){ x(x) } with(fat, apply(fat[,64:233],2,fac)) ``` ...
  • 分类变量

    千次阅读 2020-06-27 23:38:08
    一、分类变量category的创建及其性质 1、分类变量的创建 (a)用Series创建 pd.Series(["a", "b", "c", "a"], dtype="category") (b)对DataFrame指定类型创建 (c)利用内置categorical类型创建 cat = pd....

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 468,311
精华内容 187,324
关键字:

变量分类