精华内容
下载资源
问答
  • 数学建模常用方法 层次分析法(AHP) 1.起源: ...在对复杂的决策问题的本质、影响因素及其内在关系等进行深入分析基础上,利用较小定量信息使决策思维过程数学化,从而为多目标、多准则或无结构

    【文章内容全部来自bilibili:https://www.bilibili.com/video/BV1Kb41167QZ】

    数学建模的13种常用的方法

    一、层次分析法(AHP)

    1.起源:
    美国运筹学家在上世纪70年代初,为美国国防部研究“根据各个工业部门对国家福利的贡献大小而进行电力分配”课题是,应用网络系统理论和多目标综合评价方法,提出的一种层次权重决策分析方法。
    2.特点:
    在对复杂的决策问题的本质、影响因素及其内在关系等进行深入分析的基础上,利用较小的定量信息使决策的思维过程数学化,从而为多目标、多准则或无结构性的复杂问题提供简便的决策方法。
    3.定位:
    是对难以完全定量的复杂系统做出决策的模型和方法。
    4.原理:
    层次分析法根据问题的性质和要达到的总目标,将问题分解为不同的组成因素,按照因素间的相互关联影响以及隶属关系将因素按不同层次聚集组合,形成一个多层次的分析结构模型,从而最终使问题归结为最底层相对于最高层的相对重要权值的确定或相对优劣的排定。
    5.步骤:
    1.建立层次结构模型。
    2.构造判断(成对比较)矩阵
    3.层次单排序及其一致性检验
    4.层次总排序及其一致性检验
    6.例子1:在这里插入图片描述

    在这里插入图片描述
    在这里插入图片描述
    7.例子2:
    在这里插入图片描述
    在这里插入图片描述
    案例代码:
    disp(‘请输入判断矩阵A(n阶)’);
    A=input(‘A=’);
    [n,n]=size(A);
    x=ones(n,100);
    y=ones(n,100);
    m=zeros(1,100);
    m(1)=max(x(:,1));
    y(:,1)=x(:,1);
    x(:,2)=Ay(:,1);
    m(2)=max(x(:,2));
    y(:,2)=x(:,2)/m(2);
    p=0.0001;i=2;k=abs(m(2)-m(1));
    while k>p
    i=i+1;
    x(:,i)=A
    y(:,i-1);
    m(i)=max(x(:,i));
    y(:,i)=x(:,i)/m(i);
    k=abs(m(i)-m(i-1));
    end
    a=sum(y(:,i));
    w=y(:,i)/a;
    t=m(i);
    disp(w);
    %以下是一致性检验
    CI=(t-n)/(n-1);RI=[0 0 0.52 0.89 1.12 1.26 1.36 1.41 1.46 1.49 1.52 1.54 1.56 1.58 1.59];
    CR=CI/RI(n);
    if CR<0.10
    disp(‘此矩阵的一致性可以接受!’);
    disp(‘CI=’);disp(CI);
    disp(‘CR=’);disp(CR);
    end

    二、多属性决策

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    灰色预测

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    展开全文
  • 平面分离法求解带有偏好动态多目标优化问题 I.介绍 动态多目标进化算法 DMOP:决策问题的目标函数不仅与决策变量有关,并且还会随着时间(环境)变化而变化。因此该决策问题的最优解可能也会随时间(环境)变化...

    平面分离法求解带有偏好的动态多目标优化问题

    I.介绍

    动态多目标进化算法

    DMOP:决策问题的目标函数不仅与决策变量有关,并且还会随着时间(环境)的变化而变化。因此该决策问题的最优解可能也会随时间(环境)的变化而变化。

    常用求解方法:

    (1)、EA算法:DNSGAII、DCOEA等

    (2)、hyper-heuristics(超启发式)

    超启发式的主要目标:组合不同的启发式算法,称为低级启发式算法(LLHs),为产生更好的解。

    基于选择的超启发式算法可以分为两个阶段:启发式选择和移动接受,

    前者定义在当前时间段应用哪个LLH来解决问题,

    后者设置接受或拒绝由所选LLH获得的解的标准。

    (3)记忆、预测等

    II.基于偏好的动态多目标进化算法

    1)DSNGA-II,DNSGA-II考虑由DM先验定义的一组偏好,为每个当前候选解计算单个目标函数的归一化伪权重。然后,选择具有最接近归一化值的。

    2)InDM2(基于偏好点),交互式DMOEA,允许DM在过程中设置参考点。一旦检测到问题变化或者参考点变化,当前种群的子集就会被随机产生的解所替代。

    3)通过2)的两种可以解决偏好问题的结合InDM2的算法:WASF-GA和 RNSGA-II。

    动态超启发式算法

    低级启发式算法的复杂性没有限制,所以特定问题的启发式(problem-specific)和元启发式算法(meta-heuristics)可以作为超启发式(hyper-heuristic)的LLHs(low-level heuristics)

    求解动态问题(DOPs)的启发式算法:AHC、HH、HMHH

    求解DMOP的算法:DPEM-HH

    相关参数

    III.平面分离算法

    平面分离法是一种在求解动态问题的优化算法中引入偏好的方法。

    W每个目标的最小值和最大值偏好

    R平面为每个维度拓展的大小

    L每个平面获得参考点的集合,L中的点用于将种群P分割成在目标搜索空间内形成一组平面S的子种群。

    C定义了每个平面中可对种群做出贡献的最大解集百分比。

    H是DMOEA实施的精英启发式,用于为新种群选择解。

    平面分离法的特点

    1)PS是一种灵活且通用的偏好插入方法,可用于替代或补充DMOEA的精英启发式。
    2)关注ROI的同时能保持POF中解之间的多样性,以使算法能够快速适应变化。
    3)它适用于DMOEA流程的任何部分。唯一的要求是必须在合并父母与子代种群之间的集的过程中应用它。
    4) PS将种群分成多个平面后,每个平面都是独立工作的。
    5)然后,DMOEA根据其选择过程生成一个与ROI最接近的个体的新种群。

    原因:

    1)每一代都激活PS,允许优化算法在PS内探索,找到最优解

    2)C,贡献给新解集的最大百分比

    PS应用

    DNSGAII-A (随机解替代部分) DNSGAII-A-PS

    DNSGAII-B   (部分变异)

    DNSGAII-AB (部分替代,其余变异) DNSGAII-AB-PS

    GDE3  (增加响应和检测)àDGDE3(随机解替代部分) DGDE3-PS

    基于偏好的启发式算法 作为 超启发式算法

    用上面的三个带有PS的算法作为LLHs,本文提出DHH-PS超启发式算法。

    DHH-PS框架

    使用CF(choice function)作为启发方式,CF使用性能指标来评估每个LLH的结果,选择CF值最大的启发式。

    示了DHH-PS用来评估启发式h的选择函数(CF)

    C_1两阶段排序方案,根据一组性能指标来比较h

    C_2自上次DHH-PS选择h以来经过的世代数。

    \alpha平衡两个函数的作用

    计算CF和评价算法性能的指标

    ROI中非支配解比例

    变量空间世代距离

    反世代距离

    超体积比

    IV.实验设置 主要参数

    DM1: Wf1=[0.1,0.4],FDA1,FDA3,dMOP3 Wf2=[0.3,0.7],dMOP1,dMOP2,Wf2=[0.65,1.0]

    DM2:Wf1=[0.6,0.9],FDA1,FDA3,dMOP3 Wf2=[0.05,0.3],dMOP1,dMOP2,Wf2=[0.1,0.65]\

                |PS| = 3

                 R={0%,15%,30%}

                 C = {80%,15%,3%,2%}  %贡献比

                  $q_{test}=20\%\tau _t$           

                $\alpha =\tau $

    实验结果

    将种群划分为平面允许单独管理每个子集中的解,例如,将非支配排序和拥挤距离方法应用到一个平面中,与其他平面分离。通过这种方式,我们赋予DNSGA-II-PS将来自每个平面的非支配且分布良好的解添加到种群中的能力,促进了收敛到ROI和解之间的多样性。

    超启发式可能带来的一个弱点是,当使用性能较低的LLH时,其结果的质量会下降

    V.总结

    提出了一种新的基于参考点的方法,将偏好融入到DMOEA中,

    1)  该方法可以求解具有DM给定偏好的DMOPS。

    2)四个新的基于偏好的DMOEA:DNSGA-II的两个版本,即DNSGA-II-A-PS和DNSGA-II-AB-PS, DGDE3-PS,以及基于参考点的NSGA-II的动态版本(DRNSGA-II)。

    3)提出了一种新的超启发式算法,称为带平面分离的动态超启发式算法(DHH-PS), 采用基于偏好的DMOEA作为底层启发式算法来求解带偏好的DMOPs。

    如果有一种LLH表现得非常好,那么当单独应用时,它可能会工作得更好

    展开全文
  • 数学建模方法详解--三种最常用算法 一、层次分析法 层次分析法[1] (analytic hierarchy process,AHP)是美国著名运筹学家T.L.Saaty教授于20世纪70年代初首先提出一种定性与定量分析相结合的多准则决策方法[2,...
  • 11.1.3 多目标优化前面介绍的最优化方法只有一个目标...(1)化多为少法:将多目标问题化成只有1个或2个目标的问题,然后用简单的决策方法求解。最常用的是线性加权和法。(2)分层序列法:将所有的目标按其重要程度依...

    11.1.3  多目标优化

    前面介绍的最优化方法只有一个目标函数,是单目标最优化方法。但是,在许多实际工程问题中,往往希望多个指标都达到最优值,所以就有多个目标函数,这种问题称为多目标最优化问题。

    多目标规划有许多解法,下面列出常用的几种。

    (1)化多为少法:将多目标问题化成只有1个或2个目标的问题,然后用简单的决策方法求解。最常用的是线性加权和法。

    (2)分层序列法:将所有的目标按其重要程度依次排序,先求出第1个(最重要的)目标的最优解,然后在保证前一个目标最优解的前提下依次求下一个目标的最优解,一直求到最后一个目标为止。

    (3)直接求非劣解法:先求出一组非劣解,然后按事先确定好的评价标准从中找出一个满意的解。

    (4)目标规划法:当所有的目标函数和约束条件都是线性时,可以采用目标规划法,它是20世纪60年代初由查纳斯和库珀提出来的。此方法对每一个目标函数都事前给定一个期望值,然后在满足约束条件集合的情况下,找出使目标函数离期望值最近的解。

    (5)多属性效用法(MAUM):各个目标分别用各自的效用函数表示,然后构成多目标综合效用函数,以此来评价各个可行方案的优劣。

    (6)层次分析法:由T.沙基于1980年提出来。这种方法是通过对目标、约束条件、方案等的主观判断,对各种方案加以综合权衡比较,然后评定优劣。

    (7)重排次序法:把原来不好比较的非劣解,通过其他办法排出优劣次序。此外,还有多目标群决策和多目标模糊决策等方法。

    针对多目标优化问题,MATLAB提供了fgoalattain和fminimax 函数用来进行求解。篇幅有限,这里仅举例说明fgoalattain函数的用法,fminimax函数的用法读者可自行查阅帮助文档。

    【例11-7】  某工厂因生产需要欲采购一种原材料,市场上这种原材料有两个等级,甲级单价2元/千克,乙级单价1元/千克。要求所花总费用不超过200元,购得原材料总量不少于100千克,其中甲级原材料不少于50千克,问如何确定最好的采购方案。

    设x1、x2分别为采购甲级和乙级原材料的数量(千克),要求总采购费用尽量少,总采购重量尽量多,采购甲级原材料尽量多。

    首先需要编写目标函数的M文件myfun4.m,返回目标计算值。具体代码如下:

    function f=myfun4(x)

    f(1)=2*x(1)+ x(2);

    f(2)=-x(1)- x(2);

    f(3)=-x(1);

    给定目标,权重按目标比例确定,给出初始值。具体代码如下:

    >> goal=[200 -100 -50];       %  要达到的目标

    >> weight=[2040 -100 -50];   %  各个目标的权重

    >> x0=[55 55];                  %  搜索的初始值

    %  约束条件

    >> A=[2 1;-1 -1;-1 0];

    >> b=[200 -100 -50];

    >> lb=zeros(2,1);

    %  调用fgoalattain函数进行多目标优化

    >> [x,fval,attainfactor,exitflag] =...

    fgoalattain(@myfun4,x0,goal,weight,A,b,[],[],lb,[])

    经过计算,MATLAB输出计算结果为:

    x =

        50    50

    fval =

       150  -100   -50

    attainfactor =

      3.4101e-010

    exitflag =

         4

    所以,对于给定的权重比例,最好的采购方案是采购甲级原材料和乙级原材料各50千克。此时采购总费用为150元,总重量为100千克,甲级原材料总重量为50千克。

    b11bc2d91faad8d36cb894e5e89c215e.png

    展开全文
  • 决策

    2019-04-22 15:38:31
    对于一个特定的问题决策树的选择可能有很种,从中选择最优的决策树是一个NP问题,在实际中我们通常会采用启发式学习的方法去构建一颗满足启发式条件的决策树。 常用的决策树算法有ID3、C4.5、CART,下面对这三...

    决策树的目标是从一组样本数据中,根据不同的特征和属性,建立一颗树形的分类结构。对于一个特定的问题,决策树的选择可能有很多种,从中选择最优的决策树是一个NP问题,在实际中我们通常会采用启发式学习的方法去构建一颗满足启发式条件的决策树。

    常用的决策树算法有ID3、C4.5、CART,下面对这三种算法进行讲述:

    ID3--最大信息增益

    对于样本集合D,类别数为K,数据集D的经验熵表示为

                                                                         H(D) = -\sum_{k=1}^K \frac{C_k}{D}log_2 \frac{C_k}{D}                                              (1)

    其中C_k是样本集合D中属于第k类的样本子集,|C_k|表示子集的元素个数,|D|表示样本集合的元素个数。

    某个特征A对于数据集D的经验条件熵H(D|A)为:

                                              H(D|A)=\sum_{i=1}^n \frac{|D_i|}{|D|}H(D_i)=\sum_{i=1}^n \frac{|D_i|}{|D|}\begin{pmatrix} -\sum_{k=1}^K \frac{|D_{ik}|}{|D_i|} log_2 \frac{|D_{ik}|}{|D_i|} \end{pmatrix}           (2)

    其中,D_i表示D中特征A取第i个值的样本子集,D_{ik}表示D_i中属于第k类的样本子集。

    于是信息增益g(D,A)可以表示为二者之差,可得:

                                                                            g(D,A)=H(D)-H(D|A)                                      (3)

    下面我们使用一个列子来说明一下计算过程。

    假设有5个人与一个女孩相亲,女孩根据下面的条件进行判断见不见,年龄有两个属性(老,年轻),长相三个属性(帅,一般,丑),工资有三个属性(高,中等,低),会不会写代码有两个属性(会,不会),最终结果如下表:

    5个候选相亲对象的属性及女孩意愿
      年龄(age) 长相(appearance) 工资(salary) 写代码(programming) 类别
    A 不会 不见
    B 年轻 一般 中等
    C 年轻 不会 不见
    D 年轻 一般
    E 年轻 一般 不会 不见

    在这个问题中,

                                                                        H(D)=- \frac{3}{5} log_2 \frac{3}{5} - \frac{2}{5} log_2 \frac{2}{5}=0.971

     

    根据式(2)可以计算出4个分支节点的信息熵为:

                                                                    H(D|age)=\frac{1}{5}H(old) + \frac{4}{5}H(young)

                                                                                       =\frac{1}{5}(-0) + \frac{4}{5}\begin{pmatrix} -\frac{2}{4} log_2 \frac{2}{4} - \frac{2}{4} log_2 \frac{2}{4} \end{pmatrix}=0.8

                                               H(D|appearance)=\frac{1}{5}H(handsome) + \frac{3}{5}H(general) + \frac{1}{5}H(ugly)

                                                                               =0 + \frac{3}{5}\begin{pmatrix} -\frac{2}{3} log_2 \frac{2}{3} - \frac{1}{3} log_2 \frac{1}{3} \end{pmatrix} + 0=0.551

                                                       H(D|salary)=\frac{3}{5}H(high) + \frac{1}{5}H(middle) + \frac{1}{5}H(low)

                                                                               =\frac{3}{5}\begin{pmatrix} -\frac{2}{3} log_2 \frac{2}{3} - \frac{1}{3} log_2 \frac{1}{3} \end{pmatrix} + 0 + 0=0.551

                                                                 H(D|programming)=\frac{3}{5}H(yes) + \frac{2}{5}H(no)

                                                                                                      =\frac{3}{5}(0) + \frac{2}{5}(0)=0

    根据式(3)可计算出各个特征的信息增益为:

                                                                     g(D,age)=0.171,\ g(D,appearance)=0.42

                                                                g(D, salary)=0.42, \ g(D, programming)=0.971

    显然,写代码(programming)的信息增益最大,所有的样本根据此特征可以直接分到叶节点(即见或者不见),完成决策树生长。实际应用中决策树往往需要多个特征才能构建完成,需要在经验熵非0的类别中欧继续生长。

    C4.5--最大信息增益比

    特征A对于数据集D的信息增益比定义为:

                                                                                     g_R(D, A)=\frac{g(D,A)}{H_A(D)}                                                            (4)

    其中,

                                                                            H_A(D)=-\sum_{i=1}^n \frac{|D_i|}{|D|}log_2 \frac{|D_i|}{|D|}                                                      (5)

    为数据集D关于A的取值熵。上面的例子,我们根据(5)求出数据集关于每个特征的取值熵:

                                                                 H_{age}(D)=-\frac{1}{5} log_2 \frac{1}{5} - \frac{4}{5} log_2 \frac{4}{5}=0.772

                                                     H_{appearance}(D)=-\frac{1}{5} log_2 \frac{1}{5} - \frac{3}{5} log_2 \frac{3}{5}-\frac{1}{5} log_2 \frac{1}{5}=1.371

                                                         H_{salary}(D)=-\frac{3}{5} log_2 \frac{3}{5} - \frac{1}{5} log_2 \frac{1}{5}-\frac{1}{5} log_2 \frac{1}{5}=1.371

                                                           H_{programming}(D)=-\frac{3}{5} log_2 \frac{3}{5} - \frac{2}{5} log_2 \frac{2}{5}=0.971

    根据式(4)计算各个特征的信息增益比为:

                                                         g_R(D,age)=0.236, \ g_R(D, appearance)=0.402

                                                        g_R(D,salary)=0.402, \ g_R(D, programming)=1

    信息增益比中‘’写代码‘’仍然是最大的,但通过信息增益比,特征“年龄”对应的指标上升了,而特征“长相”和特征“工资”却下降了。

    CART--最大基尼指数(Gini)

    Gini描述的数据的纯度,与信息熵含义类似。

                                                                            Gini(D)=1-\sum_{k=1}^n\begin{pmatrix} \frac{|C_k|}{|D|} \end{pmatrix}^2                                      (6)

    CART在每一次迭代中选择基尼指数最小的特征及其对应的切分点进行分类。但与ID3,C4.5不同的是,CART是一颗二叉树,采用二元切割法,每一步将数据按特征A的取值切成两份,分别进入左右子树。特征A的Gini指数定义为:

                                                                        Gini(D|A)=\sum_{i=1}^n \frac{|D_i|}{|D|}Gini(D_i)                                  (7)

    对于上面的例子,应用CART分类准则,根据式(7)计算各个Gini指数为:

                                                        Gini(D|age=old)=0.4,\ Gini(D|age=young)=0.4

                           Gini(D|appearance=handsome)=0.4,\ Gini(D|appearance=ugly)=0.4

                                         Gini(D|programming=yes)=0,\ Gini(D|programming=no)=0

                                             Gini(D|salary=hight)=0.47,\ Gini(D|salary=middle)=0.3

                                                                          Gini(D|salary=low)=0.4

    在“年龄”“长相”“工资”“写代码”四个特征中,我们可以很快的发现“写代码”的Gini指数最小为0,因此选择特征“写代码”作为最优特征,“写代码”=“yes”为最优切分点。根据切分点,从根节点会直接产生两个叶节点,基尼指数为0,完成决策树生长。

    总结

    根据上面的例子我们发现三者直接的差异。

    首先,ID3采用信息增益作为评价标准,除了“写代码”这一特征外,会倾向于取值较多的特征。因为,信息增益反映的是给定条件以后不确定性减少的程度,特征取值越多就意味着确定性更高,也就是条件熵越小,信息增益越大。这在实际应用中是一个缺陷。比如我们引入特征“DNA”,每个人的DNA都是不同的,如果ID3按照“DNA”特征进行划分一定是最优的,但这种分类的泛化能力是非常差的。因此C4.5实际上式对ID3进行优化,通过引入信息增益比,一定程度上对取值多特征进行惩罚,避免ID3出现过拟合的特性,提升决策树的泛化能力。

    其次,从样本类型的角度,ID3只能处理离散型变量,而C4.5和CART都可以处理连续型变量。C4.5处理连续变量时,通过对数据排序之后找到类别不同的分割线作为切分点,根据切分点把连续属性转换为布尔型,从而将连续型变量转换多个取值区间的离散型变量。而对CART,由于其构建时每次都会对特征进行二值划分,因此可以很好的适用于连续型变量。

    从应用角度,ID3和C4.5只能用于分类任务,而CART(Classification and Regression Tree)从名字就可以看出其不仅可以用于分类,还能用于回归任务。

    此外,从实现细节、优化过程等角度,这三种决策树还有些不同,比如,ID3对样本特征缺失值比较敏感,而C4.5和CART可以对缺失值进行不同方式的处理。ID3和C4.5可以在每个节点上产生多叉分支,而每个特征在层级之间不会复用,而CART每个节点只会产生两个分支,因此最后会形成一颗二叉树,且每个特征可以被重复使用;ID3和C4.5通过剪枝来权衡树的准确性和泛化能力,而CART直接利用全部数据发现所有可能的树结构进行对比。

    参考:《百面机器学习算法工程师》

     

    展开全文
  • 集成方法原理总结

    千次阅读 2020-08-12 16:18:40
    集成学习 集成方法的目标是把个使用给定学习算法构建的基估计器的预测结果结合起来,从而获得比单个估计器更好的泛化能力/鲁棒性。简单来说集成学习就是把若干个...其次,集成学习的常用的方法有Bagging方法和Boosti
  • 初七-目标检测-监督学习

    千次阅读 2011-02-09 21:39:00
    监督学习 目标检测中监督学习方法,指是在样本集合中通过对不同视角下的目标的训练过程,学习得到不同目标视角下从输入到输出映射函数。它是一个分类问题,在目标检测中,学习样本由目标特征对河一...
  • 在前面的几篇博客中,我们主要了解了定性调查法中的一个最终也切最常用的调查方法:深度访谈和焦点小组调查法,那在这篇博客中我们将了解其他的定性调查的方法。 案例分析法Cases Studies): 案例分析法时指根据...
  • TOPSIS法是多目标决策分析中一种常用的有效方法,又称为优劣解距离法。 解决评价类问题中适用于有多个决策变量,或者指标的数据已知。 同为评价类模型的层次分析法不适用于多个决策变量,并且标度比较模糊,在指标...
  • 决策变量(与问题求解难度相关),目标函数,约束条件(等约束与不等约束) 1.1.2步骤 1.设决策变量(什么是决策变量?–>影响目标的因素,常用0-1来设立决策变量) 2.找并写出约束条件(st) 3.写出模型
  • 针对时间序列问题的验证; 绘制学习率曲线; 绘制验证曲线; 4.3 嵌入式特征选择: Lasso回归; Ridge回归; 决策树; 4.4 模型对比: 常用线性模型; 常用非线性模型; 4.5 模型调参: 贪心调参方法; 网格调参方法...
  • 计算机视觉概述

    2020-06-04 12:02:39
    计算机视觉是将来自精致图像或视频的数据转换成一个决策或者一种新的表达式的过程,所有的这些转换都是为了达到某个目标。 计算机视觉问题 由于得到是三维世界的二维视图,没有某种固定的方法来重建出一个三维的信息...
  • 该模型是基于油藏数值模拟与优化理论构建, 通过控制变量梯度求解,根据不同需求,优化目标策略方案(如以累产油、累产水及经济效益为目标的最优方案),用以辅助油田生产决策. 在理论方法研究基础上,采用该...
  • ,向读者阐明粒子群算法解决带有约束的多目标组合优化问题的方法。 11 基于免疫算法的柔性车间调度算法(史峰) 有效的调度方法与优化技术的研究和应用,对于制造企业提高生产效率,降低生产成本等方面起着重要...
  • 的方法来进行板卡设计,使你能够享受极大的自由,从而能够使你在设计的 不同阶段随意转换,按你正常的设计流量进行工作。 Protel DXP 拥有:分级线路图设计、Spice 3f5 混合电路模拟、完全支持线路 图基础上的FPGA...
  • 利用多种搜索方法获取有用信息和商机,由单一向集群化、智能化发展,以及向定向邮件搜索技术延伸,寻找网上营销目标将成为一件易事。 2、信息发布功能 网络信息扩散范围、停留时间、表现形式、延伸效果、...
  • ● 阐释了常用的C抖编程理念和技术。 ● 提供了大量的附注,如提示、警告、注意等。 . 本书的作者和编辑尽最大的努力使本书简单、明了、生动有趣。我们的目标是,读者阅读本书后,能够 编写出可靠、高效的程序,...
  • ● 阐释了常用的C抖编程理念和技术。 ● 提供了大量的附注,如提示、警告、注意等。 . 本书的作者和编辑尽最大的努力使本书简单、明了、生动有趣。我们的目标是,读者阅读本书后,能够 编写出可靠、高效的程序,...
  • ● 阐释了常用的C抖编程理念和技术。 ● 提供了大量的附注,如提示、警告、注意等。 . 本书的作者和编辑尽最大的努力使本书简单、明了、生动有趣。我们的目标是,读者阅读本书后,能够 编写出可靠、高效的程序,...
  •  4.4.2 常用的图像几何变换  4.5 图像形态学处理  4.5.1 形态学的基本概念  4.5.2 形态学的基本运算  4.6 习题  参考文献    第5章 图像分割  5.1 阈值分割  5.1.1 阈值分割的原理与方法  5.1.2 基于像素...
  • 第11章多目标函数优化方法 11.1概述 11.2理想点法 11.3线性加权和法 11.4最大最小法 11.5目标规划法 本章小结 第三部分MATLAB智能优化算法 第12章免疫优化算法及其实现 12.1基本概念 12.2人工...
  • 2019数据运营思维导图

    2019-03-29 21:34:09
    怎么做 数据收集 数据太可以采用抽样的方法 数据建模 根据所获取到的数据建立模型,注入数据调整模型参数 数据分析及预测 数据可视化、输出报表、趋势预测 留存分析 留存(次~7日、14日、30日) 解决问题 用户对...
  • 数据运营思维导图

    2018-04-26 14:24:22
    数据太可以采用抽样的方法 数据建模 根据所获取到的数据建立模型,注入数据调整模型参数 数据分析及预测 数据可视化、输出报表、趋势预测 留存分析 留存(次~7日、14日、30日) 解决问题 用户对游戏的...
  • 龙 翀 -《解决空间规模问题的几种常用的存储结构》 骆 骥 -《数学模型的建立和选择》 施 遥 -《人工智能在围棋程序中的应用》 肖 洲 -《数据结构的在程序设计中的应用》 谢 婧 -《规模化问题的解题策略》 徐 串...
  • 附录列出了在DCDL中常用的符号。第3章正式涉及分布式系统,介绍了一些概念,如时钟、事件和状态以及描述一个分布式系统的两种方法:时空视图和交叉视图。第4章讨论对于分布式系统设计十分重要的互斥问题。互斥保证了...
  •  正如经济学为分析企业决策问题提供理论基础一样,导源于决策学分析工具与技术,提供了一系列方法,去建立决策模式,分析可供选择各个行动方案影响以及评价模式所得结果。管理经济学吸取了许多最佳化技术,...
  • 分布式系统设计

    热门讨论 2007-07-12 15:59:47
    附录列出了在DCDL中常用的符号。第3章正式涉及分布式系统,介绍了一些概念,如时钟、事件和状态以及描述一个分布式系统的两种方法:时空视图和交叉视图。第4章讨论对于分布式系统设计十分重要的互斥问题。互斥保证了...
  • 软件工程教程

    热门讨论 2012-07-06 23:10:29
    应用计算机科学、数学及管理科学等原理,以工程化原则和方法来解决软件问题,指导计算机软件开发和维护一门工程学科。  软件工程原则 任务2 软件生命周期与软件开发模型 软件生命周期 软件开发模型 ...

空空如也

空空如也

1 2 3
收藏数 48
精华内容 19
关键字:

多目标决策问题常用的方法