精华内容
下载资源
问答
  • 本文首发在 easyAI - 人工智能知识库 原文地址:《一文看懂循环神经网络-RNN(独特价值+优化算法+实际应用)》 ...最后给大家介绍一下 RNN 的实际应用价值和使用场景。 为什么需要 RNN ?独特价值是什么?...

    本文首发在 easyAI - 人工智能知识库
    原文地址:《一文看懂循环神经网络-RNN(独特价值+优化算法+实际应用)

    一文看懂循环神经网络RNN

    卷积神经网络 - CNN 已经很强大的,为什么还需要RNN?

    本文会用通俗易懂的方式来解释 RNN 的独特价值——处理序列数据。同时还会说明 RNN 的一些缺陷和它的变种算法。

    最后给大家介绍一下 RNN 的实际应用价值和使用场景。

    为什么需要 RNN ?独特价值是什么?

    卷积神经网络 - CNN 和普通的算法大部分都是输入和输出的一一对应,也就是一个输入得到一个输出。不同的输入之间是没有联系的。

    大部分算法都是输入和输出的一一对应

    但是在某些场景中,一个输入就不够了!

    为了填好下面的空,取前面任何一个词都不合适,我们不但需要知道前面所有的词,还需要知道词之间的顺序。

    序列数据的处理

    这种需要处理「序列数据 - 一串相互依赖的数据流」的场景就需要使用 RNN 来解决了。

    典型的集中序列数据:

    1. 文章里的文字内容
    2. 语音里的音频内容
    3. 股票市场中的价格走势
    4. ……

    RNN 之所以能够有效的处理序列数据,主要是基于他的比较特殊的运行原理。下面给大家介绍一下 RNN 的基本运行原理。

    RNN 的基本原理

    传统神经网络的结构比较简单:输入层 - 隐藏层 - 输出层。如下图所示:

    传统神经网络

    RNN 跟传统神经网络最大的区别在于每次都会将前一次的输出结果,带到下一次的隐藏层中,一起训练。如下图所示:

    RNN区别

    下面用一个具体的案例来看看 RNN 是如何工作的:

    假如需要判断用户的说话意图(问天气、问时间、设置闹钟…),用户说了一句“what time is it?”我们需要先对这句话进行分词:

    对输入进行分词

    然后按照顺序输入 RNN ,我们先将 “what”作为 RNN 的输入,得到输出「01」

    输入what,得到输出01

    然后,我们按照顺序,将“time”输入到 RNN 网络,得到输出「02」。

    这个过程我们可以看到,输入 “time” 的时候,前面 “what” 的输出也产生了影响(隐藏层中有一半是黑色的)。

    以此类推,前面所有的输入都对未来的输出产生了影响,大家可以看到圆形隐藏层中包含了前面所有的颜色。如下图所示:

    RNN 对前面输入有「记忆」作用的体现

    当我们判断意图的时候,只需要最后一层的输出「05」,如下图所示:

    RNN 最后一层的输出是我们最终想要的

    RNN 的缺点也比较明显

    隐藏层中的颜色分布

    通过上面的例子,我们已经发现,短期的记忆影响较大(如橙色区域),但是长期的记忆影响就很小(如黑色和绿色区域),这就是 RNN 存在的短期记忆问题。

    1. RNN 有短期记忆问题,无法处理很长的输入序列
    2. 训练 RNN 需要投入极大的成本

    由于 RNN 的短期记忆问题,后来又出现了基于 RNN 的优化算法,下面给大家简单介绍一下。

    RNN 的优化算法

    RNN 到 LSTM - 长短期记忆网络

    RNN 是一种死板的逻辑,越晚的输入影响越大,越早的输入影响越小,且无法改变这个逻辑。

    LSTM 做的最大的改变就是打破了这个死板的逻辑,而改用了一套灵活了逻辑——只保留重要的信息。

    简单说就是:抓重点!

    RNN的序列逻辑到LSTM的抓重点逻辑

    举个例子,我们先快速的阅读下面这段话:

    快速阅读这段话

    当我们快速阅读完之后,可能只会记住下面几个重点:

    划重点

    LSTM 类似上面的划重点,他可以保留较长序列数据中的「重要信息」,忽略不重要的信息。这样就解决了 RNN 短期记忆的问题。

    具体技术上的实现原理就不在这里展开了,感兴趣的可以看看 LSTM 的详细介绍《长短期记忆网络 - LSTM

    从 LSTM 到 GRU

    Gated Recurrent Unit - GRU 是 LSTM 的一个变体。他保留了 LSTM 划重点,遗忘不重要信息的特点,在long-term 传播的时候也不会被丢失。

    GRU 主要是在LSTM的模型上做了一些简化和调整

    GRU 主要是在 LSTM 的模型上做了一些简化和调整,在训练数据集比较大的情况下可以节省很多时间。

    RNN 的应用和使用场景

    只要涉及到序列数据的处理问题,都可以使用到,NLP 就是一个典型的应用场景。

    RNN的应用和使用场景

    文本生成:类似上面的填空题,给出前后文,然后预测空格中的词是什么。

    机器翻译:翻译工作也是典型的序列问题,词的顺序直接影响了翻译的结果。

    语音识别:根据输入音频判断对应的文字是什么。

    生成图像描述:类似看图说话,给一张图,能够描述出图片中的内容。这个往往是 RNN 和 CNN 的结合。

    生成图像描述

    视频标记:他将视频分解为图片,然后用图像描述来描述图片内容。

    总结

    RNN的独特价值在于:它能有效的处理序列数据。比如:文章内容、语音音频、股票价格走势…

    之所以他能处理序列数据,是因为在序列中前面的输入也会影响到后面的输出,相当于有了“记忆功能”。但是 RNN 存在严重的短期记忆问题,长期的数据影响很小(哪怕他是重要的信息)。

    于是基于 RNN 出现了 LSTM 和 GRU 等变种算法。这些变种算法主要有几个特点:

    1. 长期信息可以有效的保留
    2. 挑选重要信息保留,不重要的信息会选择“遗忘”

    RNN 几个典型的应用如下:

    1. 文本生成
    2. 语音识别
    3. 机器翻译
    4. 生成图像描述
    5. 视频标记
    展开全文
  • MUSIC算法的实际应用

    2018-08-16 10:44:36
    对CVX算法有更深了解,从本质上了了解凸优化工程问题实践。对优化问题有更深认识
  • 遗传算法 禁忌搜索这些智能优化算法,在实际工程中有成功应用或大规模应用吗?是不是忽悠人、水论文?

    遗传算法 禁忌搜索这些智能优化算法,在实际工程中有成功应用或大规模应用吗?是不是忽悠人、水论文的?

    展开全文
  • 很好的一本群智能优化算法的教程,从算法的思想,理论证明分析,到实际应用讲解的很详细
  • 编者按:本文承接上一篇有关遗传算法的文章,给大家介绍了遗传算法在实际工程中的一个应用案例。通过阅读这篇文章,读者可以从实际角度进一步了解遗传算法。文章作者:Mus责任编辑:张浩然文章发表于微信公众号...

    编者按:本文承接上一篇有关遗传算法的文章,给大家介绍了遗传算法在实际工程中的一个应用案例。通过阅读这篇文章,读者可以从实际角度进一步了解遗传算法。

    文章作者:Mus

    责任编辑:张浩然

    文章发表于微信公众号【运筹OR帷幄】:【优化】遗传算法实例应用之管网拓扑结构优化

    管网拓扑结构优化设计

    由于能源需求的不断扩大,煤层气这一优质、清洁的新能源越来越受到国家的重视。粗略估计,地面生产系统的投资占整个煤层气田投资的一半以上,而采气管网是煤层气田地面生产系统投资的主要部分之一[1]。因此,深入开展煤层气田采气管网系统优化研究对减少气田投资具有十分重要的意义。煤层气田采气管网连接模式较为多样且复杂,以往对煤层气田采气管网系统进行建模研究往往只是针对阀组来气进站模式展开并且不考虑地形起伏对管线的影响[2-3]。而对于其他管网模式的研究多停留在定性分析上,未建立确切的数学模型进行求解[4-5]。煤层气田采气管网优化模型的求解算法多采用启发式算法或人工智能算法[3][6-8]。虽然启发式算法计算结果较为稳定,但由于模型较为复杂,目前还未发现能够求解针对该类模型整体优化的启发式算法,通常是将模型分步优化。由于分步优化的局限性,这种求解方式得出的总投资费用往往偏高。人工智能算法可以对模型进行整体优化,得出的解相对较优,但是由于煤层气田井口数目较多,模型复杂且非连续性强,使得计算结果不稳定且计算时间较长。本文针对煤层气田采气管网主要采用的四种来气进站模式进行了分析,考虑了地形起伏影响,建立管网拓扑结构优化数学模型,并利用改进的遗传算法对模型进行求解,最终获得了四种模式的最优方案。

    1工艺简介

    煤层气田常见的采气管网主要有井间串接来气进站、就近插入来气进站、阀组来气进站以及单井串接加阀组来气进站等模式,这四种模式都适用于单井产量低、井数多的煤层气田,具有提高集气站的辖井数量和集气规模、简化采气管网、降低投资的优点[9]。

    (1) 井间串接来气进站

    单井采气管线就近接入临近气井井场,井间成串联形式连接到集气站。

    (2) 就近插入来气进站

    根据气井布置,按相对固定的方向铺设采气干线,单井采气支线以最短距离垂直就近接入临近采气干线。

    (3) 阀组来气进站

    把相邻的几口气井采出的煤层气汇集至附近的采气阀组再集中输送至集气站。

    (4) 单井串接加阀组来气进站

    把相邻的几口气井采出的煤层气串接至附近的采气阀组,远离集气站的阀组通过采气支线串接至与集气站相邻较近的阀组,再通过采气干线串接进站。

    2模型建立

    2.1目标函数

    b1d2cf7fd1f7c852407f72f7351643a2.png

    2.2相对高程函数

    引入相对高程函数是为了计算当考虑到地形起伏时两节点间的实际管道长度。提取等高线上每个拐点的x、y坐标,将同一等高线上相邻两个拐点坐标以线性方程进行拟合并以两拐点的x坐标值作为线性方程的定义域(闭区间)的端点,即将等高线以多个相互连接的线性方程进行表示。当计算两节点的相对高程时,将两节点的x、y坐标以线性方程进行拟合并以两节点的x坐标值作为线性方程的定义域(闭区间)的端点,将该函数与所有等高线线性方程分别进行联立求解交点,若求得的交点x坐标值处于等高线线性方程定义域与节点线性方程定义域之内则保存该交点坐标,称该交点为两节点的穿越节点。将两节点以及所有穿越节点按照x坐标值大小进行排序,分别计算排序后相邻节点z坐标值差值的绝对值然后进行加和,最后结果即为两节点的相对高程。

    2.3约束条件

    2d2ca2ad23f649349465b9909c4515a4.png
    4e0ef0a016a030b0c7121952e014c154.png

    3算例

    本文选取了某煤层气田某一区域46口直井作为研究对象。原有井网采用阀组来气进站形式连接。其产出气体组分如表1所示,井口生产数据如表2所示,管材数据如表3所示,其原有管网布局如图1所示,将采气管线流速控制在5~10m/s,阀组允许连接的最大井口个数为10,最小允许进站压力0.05MPa,阀组单价为0.885万元。基于BWRS状态方程计算煤层气密度、压缩因子以及定压比热等物性参数。采用适用于低压低持液率煤层气集输管道的Beggs-Brill方法和Beggs-Brill-Moody方法计算持液率与压降[10]。

    048f29affa5f629e355eb8f5fd2a911c.png

    图1原有管网布局

    遗传算法计算参数为:种群规模为100,杂交概率为0.8,变异概率为0.3。由于采用传统收敛准则计算结果不稳定,取最大计算次数为500反复运算10次然后选取其中的最优解。分别计算不同一级连接井口数、采气干线数以及阀组数的不同进站结构下煤层气采气井网连接形式,计算得出的最优拓扑结构如图2所示。

    2ce8e7ff8878a504a52213902455cb54.png

    (a)

    65f4cccf843785cefb50d8c37e2bf04e.png

    (b)

    65f4cccf843785cefb50d8c37e2bf04e.png

    (c)

    cc69c65d31eb55e8e66b55345645f85a.png

    (d)

    图2采用传统收敛准则计算结果

    (a)井间串联来气进站 (b)就近插入来气进站 (c)阀组来气进站 (d)阀组加串联来气进站

    现有及优化后管网系统建设投资费用如表1所示。

    表1 现有及优化后管网系统建设投资费

    db0acc5fb8a2ed7172e928d5a0036735.png

    文章由『运筹OR帷幄』原创发布

    如需转载请在公众号后台获取转载须知

    展开全文
  • 前言优化算法在机器学习,运筹,博弈论等领域是必不可少算法。...对于大部分应用者而言,优化算法能用效果理想即可,至于里面弯弯道道,各种证明想想就头疼,于实际应用亦无甚效果。故而,以程序应用为主,原...

    前言

    优化算法在机器学习,运筹,博弈论等领域是必不可少的算法。尤其是机器学习,模型往往并不复杂,复杂麻烦的往往是优化算法。python里面的scipy.optimize提供了丰富的优化算法。笔者在学习这一部分内容时,少有系统介绍这个包的中文文章。某虽不才,愿奋力一试。

    对于大部分应用者而言,优化算法能用效果理想即可,至于里面的弯弯道道,各种证明想想就头疼,于实际应用亦无甚效果。故而,以程序应用为主,原理能不加则不加,不喜勿碰。

    如若英文水平可以,则点链接看官方文档即可,无需看我废言。本文的主要逻辑也是继承于此文档。https://docs.scipy.org/doc/scipy-1.5.1/reference/tutorial/optimize.html​docs.scipy.org

    Rosenbrock函数

    任何算法需要有个应用的对象,而优化领域最喜欢的小白鼠便是Rosenbrock函数,定义如下:

    当其为二元函数时,图像如下:Rosenbrock函数

    这个函数的最小值就是0,此时

    。下面我们将用此函数作为优化的对象,看看scipy.optimize里的优化方法能否将此函数优化至0,且

    无约束优化问题:

    所谓无约束就是没有约束呗,向量x的值随便取,只要能让被优化的函数最小就可以了。

    下面就以theNelder-Meadsimplex algorithm(单纯性算法)为例,来看一下调用优化的代码该怎么写。

    import numpy as np

    from scipy.optimize import minimize

    #把要用到的包import上

    def rosen(x):

    #定义Rosenbrock函数

    return sum(100.0*(x[1:]-x[:-1]**2.0)**2.0 + (1-x[:-1])**2.0)

    x0 = np.array([1.3, 0.7, 0.8, 1.9, 1.2])

    #x0是我们给的迭代初值

    res = minimize(rosen, x0, method='nelder-mead',

    options={'xatol': 1e-8, 'disp': True})

    #这就是我们调用minimize的方法,rosen是要被优化的函数,x0是给定的初值,method是采用的方法

    print(res.x)

    Rosenbrock函数写的这是什么玩意,应该是看到这个定义的第一反应。其实这个也很好理解,我们上面那个式子是给人看的,而代码里面写的是让电脑计算的,输进去一个x就要出来一个对应的Rosenbrock函数值。大家对着式子仔细对照一下,x在式子中是一个向量,而在代码里面可以当做一个list看待,品一品应该会很快看明白。

    运行一下:

    Optimization terminated successfully.

    Current function value: 0.000000

    Iterations: 18

    Function evaluations: 1084

    [1. 1. 1. 1. 1.]

    用不同的方法可以在method里面改。比如改成method='powell',此处的优化算法就改成了鲍威尔法。

    但是呢,有些算法,不是仅仅把函数写进去就可以了,还需要梯度,海森矩阵等信息,看看这些优化算法应该如何实现。首先是BFGS算法,这个算法只需要梯度函数即可。

    在应用此算法之前,我们首先应该计算Rosenbrock函数的梯度和海森矩阵。梯度就是对每个变量求偏导所组成的一个向量。(这部分不太懂的可以看看高数),我们求得

    但是首尾稍微特殊一些,

    将梯度命名为der函数,代码像下面这样写,品一品:

    def rosen_der(x):

    xm = x[1:-1]

    xm_m1 = x[:-2]

    xm_p1 = x[2:]

    der = np.zeros_like(x)

    der[1:-1] = 200*(xm-xm_m1**2) - 400*(xm_p1 - xm**2)*xm - 2*(1-xm)

    der[0] = -400*x[0]*(x[1]-x[0]**2) - 2*(1-x[0])

    der[-1] = 200*(x[-1]-x[-2]**2)

    return der

    而后就可以应BFGS算法了。

    res = minimize(rosen, x0, method='BFGS', jac=rosen_der,

    options={'disp': True})

    print(res.x)

    运行一下:

    Optimization terminated successfully.

    Current function value: 0.000000

    Iterations: 25

    Function evaluations: 30

    Gradient evaluations: 30

    [1.00000004 1.0000001 1.00000021 1.00000044 1.00000092]

    计算这个梯度怪麻烦的,能不能把它省掉,来试一下:

    res = minimize(rosen, x0, method='BFGS',

    options={'disp': True})

    print(res.x)

    运行:

    Optimization terminated successfully.

    Current function value: 0.000000

    Iterations: 25

    Function evaluations: 210

    Gradient evaluations: 30

    [0.99999925 0.99999852 0.99999706 0.99999416 0.99998833]

    也是可以的,不过效果显然不如加上梯度的,所以能加上最好加上,一分耕耘一分收获。

    此外Newton-Conjugate-Gradient algorithm(牛顿共轭梯度算法)不仅需要计算梯度,还需要海森矩阵。为此我们在调用这种优化方法时只需再把海森矩阵的函数加上就可以了。海森矩阵的具体求法在此不加赘述,如果不懂百度一下就明白了了。

    Rosenbrock的海森矩阵的程序表达为:

    def rosen_hess(x):

    x = np.asarray(x)

    H = np.diag(-400*x[:-1],1) - np.diag(400*x[:-1],-1)

    diagonal = np.zeros_like(x)

    diagonal[0] = 1200*x[0]**2-400*x[1]+2

    diagonal[-1] = 200

    diagonal[1:-1] = 202 + 1200*x[1:-1]**2 - 400*x[2:]

    H = H + np.diag(diagonal)

    return H

    在调用牛顿共轭梯度时,代码之中只需加上海森矩阵就行了,如下:

    res = minimize(rosen, x0, method='Newton-CG',

    jac=rosen_der, hess=rosen_hess,

    options={'xtol': 1e-8, 'disp': True})

    print(rex.x)

    运行一下:

    Optimization terminated successfully.

    Current function value: 0.000000

    Iterations: 24

    Function evaluations: 33

    Gradient evaluations: 56

    Hessian evaluations: 24

    array([1. , 1. , 1. , 0.99999999, 0.99999999])

    不加海森矩阵行不行,行。加上更好。

    不加海森矩阵,不加梯度行不行,不行。

    有时候呢,我们会觉得海森矩阵太麻烦了,是一个矩阵,为此我们可以用一个向量代替,这个向量呢就是海森矩阵乘以任何一个向量。大概意思就是,比如我的海森矩阵是[1 2; 3 4]是一个2*2的矩阵,我们可以用[1 2; 3 4]*[x,y]代替也就是[x+2y 3x+4y],这样我们就不用输入一个矩阵了,输入后面的向量[x+2y 3x+4y]就ok了。

    具体实现呢就是:

    def rosen_hess_p(x, p):

    x = np.asarray(x)

    Hp = np.zeros_like(x)

    Hp[0] = (1200*x[0]**2 - 400*x[1] + 2)*p[0] - 400*x[0]*p[1]

    Hp[1:-1] = -400*x[:-2]*p[:-2]+(202+1200*x[1:-1]**2-400*x[2:])*p[1:-1] \

    -400*x[1:-1]*p[2:]

    Hp[-1] = -400*x[-2]*p[-2] + 200*p[-1]

    return Hp

    res = minimize(rosen, x0, method='Newton-CG',

    jac=rosen_der, hessp=rosen_hess_p,

    options={'xtol': 1e-8, 'disp': True})

    print(res.x)

    运行一下:

    Optimization terminated successfully.

    Current function value: 0.000000

    Iterations: 24

    Function evaluations: 33

    Gradient evaluations: 56

    Hessian evaluations: 66

    array([1. , 1. , 1. , 0.99999999, 0.99999999])

    其他的Trust-Region Newton-Conjugate-Gradient Algorithm ,Trust-Region Truncated Generalized Lanczos / Conjugate Gradient Algorithm,Trust-Region Nearly Exact Algorithm,只需要将method=分别改为method='trust-ncg', method='trust-ncg',method='trust-krylov'即可。

    下面介绍有约束优化问题的调用方法。

    更新中。。。。。。

    展开全文
  • 当在现实生活中遇到问题时,我们总是希望找到最佳解决方案。...我们也认为人工智能一些算法,就是模拟了人类寻求实际问题最优解过程。例如,利用人工智能算法设计软件,配合外部电子设备例如摄像头识别人...
  • 1:随机梯度下降优化算法 一:普通梯度下降算法在更新回归系数时要遍历整个数据集,是一种批处理方法,这样训练数据特别忙...为了解决上面问题,实际中我们应用的是梯度下降一种变体被称为随机梯度下降。 上面...
  • 车辆路径问题(VRP)是组合优化中典型的NP难题...蜂群算法是刚刚起步的智能优化算法,目前国内外关于蜂群算法的文献较少,故不仅是拓宽蜂群算法的应用范围的有效的尝试,同时也给车辆路径问题提供了一种新的解决方法。
  • 当在现实生活中遇到问题时,我们总是希望找到最佳解决方案。制造软件产品也是一样...我们也认为人工智能一些算法,就是模拟了人类寻求实际问题最优解过程。例如,利用人工智能算法设计软件,配合外部电...
  • 针对非线性方程组的求解在工程上具有广泛的实际意义,经典的数值求解方法存在其收敛性依赖于初值而实际计算中初值难确定的问题,将复杂非线性方程组的求解问题转化为函数优化问题,引入竞选优化算法进行求解。...
  • 对新的群体智能算法,脑风暴优化(BSO)算法的发展,实现,变体和未来方向进行了全面的调查。 头脑风暴优化算法是一种新兴的有前途的群体智能算法,... 根据头脑风暴优化算法的发展,可以解决各种优化问题和实际应用
  • MATLAB优化算法案例分析与应用(进阶篇)是MATLAB优化算法案例分析与应用的进阶篇,详细介绍了PSO GA等算法在实际案例中的应用,并且给出了详细代码,尤其在多目标优化领域中惩罚函数编程示例,对于广大科员人员...
  • 本书以理论结合编程开发为原则,使用Python作为开发语言,讲解*优化算法的原理和应用,详细介绍了Python基础、Gurobi优化器、线性规划、整数规划、多目标优化、动态规划、图与网络分析、智能优化算法。对于算法部分...
  • 基于模块度优化的重叠社团检测算法研究与应用 中文摘要 近几年大数据人工智能持续发展变得越来越高效在日常生活中也 得到了广泛的应用网络承载着庞大而复杂数据信息其内部结构研究无 疑蕴含着丰富信息量和强大...
  • 在物流活动中,配送成本占据整个...本文提出了应用MATLAB软件,通过建立配送优化的TSP模型,运用基于遗传算法的优化算法解决TSP问题,并有相关实例进行验证,对物流企业实现科学快捷的配送调度和路径的优化有实际意义。
  • 在给出Python实现示例代码展示之前,先介绍一下两种优化准则函数方法:  1、梯度上升算法  2、随机梯度上升算法 梯度上升算法:  梯度上升算法和我们平时用梯度下降算法思想类似,梯度上升算法基于思想...
  • 一致性哈希算法是分布式系统中常用的算法。比如,一个分布式存储系统,要将数据存储到具体节点上,如果采用普通hash方法,将数据映射到具体节点上,如key%N,key是数据key,N是机器节点数,如果有一个...
  • 时间序列线性模式查询在实际中具有广泛的应用,也是时间序列挖掘基础。利用Voronoi图基本原理,提出了一种新线性模式KL相似性度量,给出了实现线性模式查询最优算法
  • 编者按:本文承接上一篇有关遗传算法的文章,给大家介绍了遗传算法在实际工程中的一个应用案例。通过阅读这篇文章,读者可以从实际角度进一步了解遗传算法。文章作者:Mus责任编辑:张浩然文章发表于微信公众号...
  • 现代优化算法.pptx

    2020-02-20 00:02:18
    现代优化算法潘克家 kejiapan@2011-8-8 目录现在优化算法概论模拟退火算法(SA)遗传算法(GA)Part 1概论 主要是说明现代优化算法的重要性现代优化算法 现代优化算法 遗传算法 模拟退火算法 禁忌搜索算法 人工神经网络 ...
  • 灰狼优化算法(GWO)具有较强的局部搜索能力和较快的收敛速度,但在解决高维和复杂的优化...在7个标准数据集的FCM聚类优化上, 与GWO、GWOepd和LGWO相比,ODGWO表现出了更好的聚类优化性能,可应用在更多的实际优化问题上.
  • PSO 算法在智能停车场系统中的应用及算法优化 市首都师范大学附属中学高二10...用离散 PSO 算法为基础算法的智能停车场系统设想设计了匹配车辆与车位对应关系的 评价因子并在采集部分实际数据的基础上完成了智能停车场
  • 为了提高粒子群算法在求解调度问题时搜索能力和优化效率以及避免早熟收敛。通过采用了一种新颖量子粒子群算法,用量子位概率幅对粒子位置编码,用量子旋转门实现粒子移动,完成粒子搜索;并采用量子非门来实现变异...
  • 基于Andrew Ng机器学习视频神经网络作业,自己写的优化算法,速度相比于给fmincg函数慢了很多,但可以帮助你加深共轭梯度法在实际寻优工程中应用的理解,matlab程序
  • 论文研究-Skyline查询应用扩展及其优化算法.pdf, Skyline查询处理是近年来信息管理和数据库交叉学科一个研究重点和热点, 其广泛应用于多标准决策支持系统、城市导航...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 2,372
精华内容 948
关键字:

优化算法的实际应用