精华内容
下载资源
问答
  • 文章目录一、理论基础1、蜻蜓算法(DA)2、精英反向学习3、EDDA算法(1)基于精英反向学习的种群初始化(2)基于贪婪保留的逐维更新策略(3)基于当前解信息的双向搜索二、实验与结果分析三、参考文献四、Matlab仿真...

    一、理论基础

    1、蜻蜓算法(DA)

    蜻蜓算法基本原理是通过对蜻蜓个体之间的社会行为活动进行模拟,和大多数群智能算法相同,蜻蜓个体的行为遵循“求生”的原则,把蜻蜓食物的位置映射为函数优化过程中的解,通过寻找食物源和躲避天敌来进行位置移动。具体意义和数学表达方式如下:

    • 定义1 分离度指相邻个体之间避让碰撞的行为: S i = − ∑ j = 1 N X − X j (1) S_i=-\sum_{j=1}^NX-X_j\tag{1} Si=j=1NXXj(1)
    • 定义2 对齐度指个体趋于保持相同速度的行为: A i = ∑ j = 1 N V j N (2) A_i=\frac{\displaystyle\sum_{j=1}^NV_j}{N}\tag{2} Ai=Nj=1NVj(2)
    • 定义3 内聚度指个体趋于种群中心的行为: C i = ∑ j = 1 N V j N − X (3) C_i=\frac{\displaystyle\sum_{j=1}^NV_j}{N}-X\tag{3} Ci=Nj=1NVjX(3)
    • 定义4 食物吸引指蜻蜓个体受食物源吸引的行为: F i = X + − X (4) F_i=X^+-X\tag{4} Fi=X+X(4)
    • 定义5 天敌排斥指蜻蜓个体远离天敌的行为: E i = X − − X (5) E_i=X^--X\tag{5} Ei=XX(5)

    其中, X X X表示当前个体位置, X j X_j Xj表示第 j j j个相邻个体的位置, N N N表示相邻个体的数量。 V j V_j Vj表示第 j j j个相邻个体的速度, X + X^+ X+表示食物源位置, X − X^- X表示天敌位置。下一代蜻蜓个体步长更新公式为: Δ X t + 1 = ( s S i + a A i + c C i + f F i + e E i ) + w Δ X t (6) \Delta X_{t+1}=(sS_i+aA_i+cC_i+fF_i+eE_i)+w\Delta X_t\tag{6} ΔXt+1=(sSi+aAi+cCi+fFi+eEi)+wΔXt(6)其中, s s s表示分离权重, a a a表示结队权重, c c c表示聚集权重, f f f表示食物影响因子, e e e表示天敌影响因子, w w w表示惯性权重, S i S_i Si A i A_i Ai C i C_i Ci F i F_i Fi E i E_i Ei分别表示第 i i i个蜻蜓个体的分离度、对齐度、内聚度、食物吸引力以及天敌排斥力, t t t表示当前迭代次数。下一代蜻蜓个体位置更新公式为: X t + 1 = X t + Δ X t + 1 (7) X_{t+1}=X_t+\Delta X_{t+1}\tag{7} Xt+1=Xt+ΔXt+1(7)判断蜻蜓个体之间是否相邻,可以以蜻蜓个体为圆心,画一个半径为 r r r的圆,所有在圆内的个体都认为是相邻的,每只蜻蜓的搜索半径随迭代次数的变化更新,半径更新公式如下: r = a − b 4 + 2 ( a − b ) t t max ⁡ (8) r=\frac{a-b}{4}+2(a-b)\frac{t}{t_{\max}}\tag{8} r=4ab+2(ab)tmaxt(8)式中, r r r为搜索半径, t t t为当前迭代次数, t max ⁡ t_{\max} tmax为最大迭代次数, a a a b b b为搜索范围的上下限。
    当蜻蜓个体不存在相邻个体时,执行莱维飞行,位置更新公式为: X t + 1 = X t + Levy ( d ) × X t (9) X_{t+1}=X_t+\text{Levy}(d)×X_t\tag{9} Xt+1=Xt+Levy(d)×Xt(9)其中, t t t表示当前迭代次数, d d d表示当前位置的维度。
    莱维飞行随机搜索路径公式如下: Levy ( β ) ∼ Φ × μ ∣ v ∣ 1 / β ( s , λ ) (10) \text{Levy}(\beta)\sim\frac{\it\Phi×\mu}{|v|^{1/\beta}}(s,\lambda)\tag{10} Levy(β)v1/βΦ×μ(s,λ)(10)其中, μ \mu μ v v v是服从标准正态分布的随机变量, β \beta β表示莱维飞行的控制因子,通常为1.5。 Φ \it\Phi Φ的计算公式如下: Φ = [ Γ ( 1 + β ) × sin ⁡ ( π × ( β / 2 ) ) Γ ( ( 1 + β ) / 2 ) × β × 2 ( β − 1 ) / 2 ] 1 β (11) {\it{\Phi}}=\left[\frac{\Gamma(1+\beta)×\sin(\pi×(\beta/2))}{\Gamma((1+\beta)/2)×\beta×2^{(\beta-1)/2}}\right]^{\frac1\beta}\tag{11} Φ=[Γ((1+β)/2)×β×2(β1)/2Γ(1+β)×sin(π×(β/2))]β1(11)

    2、精英反向学习

    请参考这里

    3、EDDA算法

    (1)基于精英反向学习的种群初始化

    请参考这里

    (2)基于贪婪保留的逐维更新策略

    改进的基于贪婪保留的逐维更新策略的蜻蜓算法,能够考虑每一维度的信息更新。该策略的思想是:某一维度的值经过更新后与其他维度的值组成新的解;再根据目标函数适应度评价该新解;如果能够改善当前解的质量,则保留该维度对于解的更新结果;反之,则放弃对于当前维度值的更新,保留未更新之前的维度信息,并进行下一维度的更新,采用这种贪婪保留的方式,直到各维度更新完毕。
    利用基于贪婪保留的逐维更新策略,使得解的进化维度得到关注,淘汰退化维度对于解的影响,节约了随机更新所浪费的评价次数;能够有效抑制各维度之间相互干扰,提高了算法的收敛效率,也提升了算法的局部开发能力。伪代码如下:

    For i=1 to N
    	For j=1 to D
    		Y=X(i, :);
    		ΔX(i, j)= (a*A(i, j)+c*C(i, j)+s*S(i, j)+f*F(i, j)+e*E(i, j) )+w*ΔX(i, j);
    		Y(j)= X(i, j)+ΔX(i, j)
    		If fobj(Y)<fobj(X(i, :))
    			接受更新:X(i, j)=Y(j);
    		End
    	End
    End
    

    (3)基于当前解信息的双向搜索

    为了进一步增强个体间的信息传递,提高算法的寻优能力,可在式(7)中加入历史最优解和当前解的信息,通过差分结果来进一步引导解的收敛,当前解的信息得到充分利用,增强了解的寻优能力;同时, r r r作为方向控制因子,可取 ( − 1 , 1 ) (-1,1) (1,1)之间均匀分布的随机数,能够控制搜索方向,达到双向搜索,提高解的收敛效率和寻优能力,因此本文改进的算法把式(7)改进成如下公式: X t + 1 , i = X t , i + Δ X t + 1 , i + r ( X F o o d − X t , i ) (12) X_{t+1,i}=X_{t,i}+\Delta X_{t+1,i}+r(X_{Food}-X_{t, i})\tag{12} Xt+1,i=Xt,i+ΔXt+1,i+r(XFoodXt,i)(12)其中, r r r ( − 1 , 1 ) (-1,1) (1,1)之间的随机数,服从均匀分布, X F o o d X_{Food} XFood表示当前食物源的位置,即历史最优解, X t , i X_{t,i} Xt,i为当前解的位置, t t t为当前迭代次数。
    改进算法的流程图如图1所示。
    在这里插入图片描述

    图1 EDDA算法流程图

    二、实验与结果分析

    为了验证EDDA算法改进的有效性,本文设定种群规模 N = 30 N=30 N=30,最大迭代次数为500,莱维飞行的步长缩放因子分别为0.1、1.3,测试函数为F1 ∼ \sim F9(表1所示),将其与标准DA算法进行比较,每个算法独立运行30次。

    表1 测试函数

    在这里插入图片描述
    结果显示如下:
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    函数:F1
    DA:平均值:30.6238,标准差:101.5119,最差值:555.2985,最优值:0
    EDDA:平均值:1.2257e-60,标准差:4.6961e-60,最差值: 2.347e-59,最优值:1.3342e-69
    函数:F2
    DA:平均值:2.6901,标准差:2.7936,最差值:10,最优值:0.14233
    EDDA:平均值:1.7147e-30,标准差:9.0481e-30,最差值:4.9617e-29,最优值:3.1043e-35
    函数:F3
    DA:平均值:1090.9235,标准差:2000.1954,最差值:6781.9296,最优值:15.6103
    EDDA:平均值:108.6665,标准差:39.9154,最差值:204.6943,最优值:29.9641
    函数:F4
    DA:平均值:4.896,标准差:4.1755,最差值:23.0331,最优值:0.82395
    EDDA:平均值:7.5326e-08,标准差:9.703e-08,最差值:4.0976e-07,最优值:3.1571e-09
    函数:F5
    DA:平均值:3053.1936,标准差:11027.1942,最差值:60158.8363,最优值:8.9239
    EDDA:平均值:3.8919,标准差:6.7386,最差值:36.9651,最优值:0.0088188
    函数:F6
    DA:平均值:31.5546,标准差:14.4005,最差值:71.1565,最优值:9.9624
    EDDA:平均值:0,标准差:0,最差值:0,最优值:0
    函数:F7
    DA:平均值:5.0749,标准差:4.3596,最差值:19.9374,最优值:0.75519
    EDDA:平均值:7.0462e-15,标准差:1.5979e-15,最差值:7.9936e-15,最优值:4.4409e-15
    函数:F8
    DA:平均值:0.7996,标准差:0.87476,最差值:4.643,最优值:0.053134
    EDDA:平均值:0.0071663,标准差:0.0062724,最差值:0.023134,最优值:0
    函数:F9
    DA:平均值:3.709,标准差:5.4161,最差值:28.0561,最优值:0.094204
    EDDA:平均值:4.7116e-32,标准差:1.6702e-47,最差值:4.7116e-32,最优值:4.7116e-32
    

    由此可得,相比于标准DA算法,本文改进的EDDA算法具有较高的寻优精度、较强的全局搜索能力及更好的鲁棒性。

    三、参考文献

    [1] Mirjalili S . Dragonfly algorithm: a new meta-heuristic optimization technique for solving single-objective, discrete, and multi-objective problems[J]. Neural Computing and Applications, 2016, 27(4):1053-1073.
    [2] 何 庆,黄闽茗,王 旭.基于精英反向学习的逐维改进蜻蜓算法[J].南京师范大学学报(自然科学版),2019,42(03):65-72.

    展开全文
  • 文章目录一、理论基础1、基本鲸鱼优化算法2、精英反向学习的黄金正弦鲸鱼优化算法(EGolden-SWOA)(1)精英反向学习策略(2)黄金正弦算法(3)EGolden-SWOA算法步骤二、仿真实验与结果分析三、参考文献四、Matlab...

    一、理论基础

    1、基本鲸鱼优化算法

    请参考这里

    2、精英反向学习的黄金正弦鲸鱼优化算法(EGolden-SWOA)

    (1)精英反向学习策略

    该策略利用精英个体比一般个体包含更多有效信息的这一特点,通过当前种群中的精英个体构造出反向种群以此来增加种群的多样性,并从当前种群和反向种群构成的新种群中选取最优个体作为新一代个体,进入下一次的迭代。
    精英反向解定义为:假设当前种群中的一般个体对应的自身极值点为精英个体 X i , j e = { X i , 1 e , X i , 2 e , ⋯   , X i , d e } , ( i = 1 , 2 , ⋯   , s ; j = 1 , 2 , ⋯   , d ) X_{i,j}^e=\{X_{i,1}^e,X_{i,2}^e,\cdots,X_{i,d}^e\},(i=1,2,\cdots,s;j=1,2,\cdots,d) Xi,je={Xi,1e,Xi,2e,,Xi,de},(i=1,2,,s;j=1,2,,d),其反向解 O P i , j e = { O P i , 1 e , O P i , 2 e , ⋯   , O P i , d e } OP_{i,j}^e=\{OP_{i,1}^e,OP_{i,2}^e,\cdots,OP_{i,d}^e\} OPi,je={OPi,1e,OPi,2e,,OPi,de},可以定义为: O P i , j e = K ⊕ ( α j + β j ) − X i , j e (1) OP_{i,j}^e=K\oplus(\alpha_j+\beta_j)-X_{i,j}^e\tag{1} OPi,je=K(αj+βj)Xi,je(1)其中, K K K为在 ( 0 , 1 ) (0,1) (0,1)上的d维向量; X i , j e ∈ [ α j , β j ] X_{i,j}^e\in[\alpha_j,\beta_j] Xi,je[αj,βj] α j = max ⁡ ( X i , j ) \alpha_j=\max(X_{i,j}) αj=max(Xi,j) β j = min ⁡ ( X i , j ) \beta_j=\min(X_{i,j}) βj=min(Xi,j) α j \alpha_j αj β j \beta_j βj为动态边界,动态边界克服了固定边界难以保存搜索经验的缺点,使精英反向解可以定位在狭窄的搜索空间中,有利于算法收敛。若动态边界操作使 O P i , j e OP_{i,j}^e OPi,je越过边界成为非可行解,可以利用随机生成的方法重置,重置方式如下: O P i , j e = r a n d ( α j , β j ) (2) OP_{i,j}^e=rand(\alpha_j,\beta_j)\tag{2} OPi,je=rand(αj,βj)(2)

    (2)黄金正弦算法

    请参考这里

    (3)EGolden-SWOA算法步骤

    步骤1 设置相关参数;
    步骤2 种群初始化,主要包括初始种群个体数 s s s、候选解维度 d d d、最大迭代次数 t max ⁡ t_{\max} tmax
    步骤3 根据目标函数计算每一个鲸鱼个体的适应度值;
    步骤4 反向种群 O P = { } OP=\{\} OP={}
    步骤5 根据 α j = min ⁡ ( X i , j ) , β j = max ⁡ ( X i , j ) \alpha_j=\min(X_{i,j}),\beta_j=\max(X_{i,j}) αj=min(Xi,j),βj=max(Xi,j)计算个体的当前搜索边界;
    步骤6 对种群中的每个个体根据式(1)生成精英反向解并添加到反向种群 O P OP OP中;
    步骤7 从当前种群和反向种群中选取适应度值较好的 s s s个优良个体作为下一代种群,并将适应度值最小的个体位置记为猎物位置 X p t \boldsymbol X_p^t Xpt
    步骤8 更新参数 a a a A A A C C C
    步骤9 若参数 ∣ A ∣ ≥ 1 |A|≥1 A1,根据基本鲸鱼优化算法相应公式进行位置更新;
    步骤10 若参数 ∣ A ∣ < 1 |A|<1 A<1,根据式(3)进行位置更新: X i t + 1 = { X p t − A ⋅ D , p r < 0.5 X i t ⋅ ∣ sin ⁡ ( R 1 ) ∣ − R 2 ⋅ sin ⁡ ( R 1 ) ⋅ ∣ x 1 X p t − x 2 X i t ∣ ,      p r ≥ 0.5 (3) \boldsymbol X_i^{t+1}=\begin{dcases}\boldsymbol X_p^t-A\cdot\boldsymbol D,\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad\quad pr<0.5\\\boldsymbol X_i^t\cdot|\sin(R_1)|-R_2\cdot\sin(R_1)\cdot|x_1\boldsymbol X_p^t-x_2\boldsymbol X_i^t|,\,\,\,\,pr≥0.5\end{dcases}\tag{3} Xit+1={XptAD,pr<0.5Xitsin(R1)R2sin(R1)x1Xptx2Xit,pr0.5(3)
    步骤11 利用约束条件检查新位置的可行性,若新位置可行则鲸鱼个体更新其位置,否则鲸鱼个体保持其原有位置;
    步骤12 重复步骤3~步骤11,直到达到最大迭代次数 t max ⁡ t_{\max} tmax时终止操作。

    二、仿真实验与结果分析

    本文选取了基本鲸鱼优化算法(WOA)、精英反向学习的黄金正弦鲸鱼算法(EGolden-SWOA)、粒子群算法(PSO)以及黄金正弦(Golden-SA)进行对比,所有算法的种群规模设为30,迭代次数设为500,所共有参数保持一致,每个算法独立运算30次,以文献[1]中的f1、f5、f12、f15为例。
    结果显示如下:
    在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述

    函数:F1
    WOA:最优值: 1.8874e-86,最差值:7.8583e-70,平均值:2.7478e-71,标准差:1.4335e-70
    EGolden_SWOA:最优值: 1.4885e-216,最差值:9.3712e-203,平均值:3.5866e-204,标准差:0
    Gold-SA:最优值: 0,最差值:1.2588e-210,平均值:4.1974e-212,标准差:0
    PSO:最优值: 324.8933,最差值:1688.0045,平均值:917.8114,标准差:307.1331
    函数:F5
    WOA:最优值: 27.247,最差值:28.7586,平均值:27.9357,标准差:0.4719
    EGolden_SWOA:最优值: 25.0283,最差值:26.5183,平均值:25.663,标准差:0.3332
    Gold-SA:最优值: 3.4481e-06,最差值:0.029329,平均值:0.0034692,标准差:0.005847
    PSO:最优值: 19274.1961,最差值:632208.6901,平均值:120426.0906,标准差:115483.9033
    函数:F12
    WOA:最优值: 0.0045388,最差值:0.12492,平均值:0.026394,标准差:0.022246
    EGolden_SWOA:最优值: 1.3172e-07,最差值:7.5024e-06,平均值:2.0238e-06,标准差:1.5477e-06
    Gold-SA:最优值: 4.3049e-10,最差值:7.2153e-05,平均值:1.0382e-05,标准差:1.8634e-05
    PSO:最优值: 7.4093,最差值:1385.0577,平均值:68.9472,标准差:249.207
    函数:F15
    WOA:最优值: 0.00030776,最差值:0.0022514,平均值:0.00072381,标准差:0.00043978
    EGolden_SWOA:最优值: 0.00030749,最差值:0.00031074,平均值:0.00030795,标准差:6.8855e-07
    Gold-SA:最优值: 0.00030974,最差值:0.00166,平均值:0.00041223,标准差:0.00024192
    PSO:最优值: 0.00030749,最差值:0.020363,平均值:0.0018993,标准差:0.0050342
    

    由上述例子可以看出EGolden-SWOA算法只在F5的最优解不如Gold-SA,其他均优于对比算法,这表明,EGolden-SWOA具有更好的寻优精度和稳定性。

    三、参考文献

    [1] 肖子雅, 刘升. 精英反向黄金正弦鲸鱼算法及其工程优化研究[J]. 电子学报, 2019, 47(10): 2177-2186.

    展开全文
  • 文章目录一、理论基础1、基本麻雀搜索算法2、融合柯西变异和反向学习的麻雀搜索算法(1)Sin混沌初始化种群(2)动态自适应权重(3)改进的侦查预警麻雀更新公式(4)融合柯西变异和反向学习策略二、仿真实验与结果...

    一、理论基础

    1、基本麻雀搜索算法

    请参考这里

    2、融合柯西变异和反向学习的麻雀搜索算法

    (1)Sin混沌初始化种群

    Sin混沌模型是一种映射折叠次数无限的模型,杨海东等研究证明,Sin模型比Logistic模型具备更佳的混沌特性,因此本文采用Sin混沌对麻雀算法进行种群初始化,Sin混沌一维自映射表达式如下: { x n + 1 = sin ⁡ 2 x n , n = 0 , 1 , ⋯   , N − 1 ≤ x n ≤ 1 ,    x n ≠ 0 (1) \begin{dcases}x_{n+1}=\sin\frac{2}{x_n},\quad n=0,1,\cdots,N\\-1≤x_n≤1,\quad\,\, x_n≠0\end{dcases}\tag{1} xn+1=sinxn2,n=0,1,,N1xn1,xn=0(1)式(1)中为防止在 [ − 1 , 1 ] [-1,1] [1,1]产生不动点和零点,初始值不能设置为0。Sin混沌一维自映射的随机性、初值敏感性、遍历性与迭代次数关系如图1所示。从图1(a)、图1(b)发现设置不同的初始值,会产生完全不同的混沌序列,从图1( c \text{c} c)看出当更新一定代数时,系统将遍览整个解区域。
    在这里插入图片描述

    (a) x0=0.2550

    在这里插入图片描述

    (b) x0=0.2550,y0=0.2552

    在这里插入图片描述

    (c) x0=0.2551,y0=0.1552
    图1 Sin混沌特性与迭代次数关系图

    (2)动态自适应权重

    借鉴惯性权重的思想,在发现者位置更新方式中继续引入动态权重因子 ω \omega ω,使其在迭代初期具有较大的值,能够更好地进行全局探索,在迭代后期自适应地减小,从而更好地进行局部搜索,同时提高收敛速度。权重系数 ω \omega ω的计算公式和改进后的发现者位置更新方式如下: ω = tanh ⁡ ( 2 ( 1 − t / i t e r max ⁡ ) ) (2) \omega=\tanh(2(1-t/iter_{\max}))\tag{2} ω=tanh(2(1t/itermax))(2) X i , j t + 1 = { ( X i , j t + ω ( f j , g t − X i , j t ) ) ⋅ r a n d , R 2 < S T X i , j t + Q ,      R 2 ≥ S T (3) X_{i,j}^{t+1}=\begin{dcases}(X_{i,j}^t+\omega(f_{j,g}^t-X_{i,j}^t))\cdot rand,\quad R_2<ST\\X_{i,j}^t+Q,\quad\quad\quad\quad\quad\quad\quad\quad\quad\,\,\,\, R_2≥ST\end{dcases}\tag{3} Xi,jt+1={(Xi,jt+ω(fj,gtXi,jt))rand,R2<STXi,jt+Q,R2ST(3)式(3)中, f j , g t f_{j,g}^t fj,gt为上一代中第 j j j维的全局最优解。

    (3)改进的侦查预警麻雀更新公式

    X i , j t + 1 = { X best t + β ( X i , j t − X best t ) ,     f i > f g X best t + β ( X worst t − X best t ) ,     f i ≤ f g (4) X_{i,j}^{t+1}=\begin{dcases}X_{\text{best}}^t+\beta(X_{i,j}^t-X_{\text{best}}^t),\quad\,\,\, f_i>f_g\\X_{\text{best}}^t+\beta(X_{\text{worst}}^t-X_{\text{best}}^t),\,\,\, f_i≤f_g\end{dcases}\tag{4} Xi,jt+1={Xbestt+β(Xi,jtXbestt),fi>fgXbestt+β(XworsttXbestt),fifg(4)改进后的公式表示若该麻雀是最优位置的麻雀,它会逃到最优位置和最差位置间的随机位置,否则,它会逃到自己和最优位置之间的随机位置。

    (4)融合柯西变异和反向学习策略

    为让个体能够更好地寻到最优解,将反向学习策略融入到麻雀算法中,数学表征如下: X best ′ ( t ) = u b + r ⊕ ( l b − X best ( t ) ) (5) X'_{\text{best}}(t)=ub+r\oplus(lb-X_{\text{best}}(t))\tag{5} Xbest(t)=ub+r(lbXbest(t))(5) X i , j t + 1 = X best ′ ( t ) + b 1 ⊕ ( X best ( t ) − X best ′ ( t ) ) (6) X_{i,j}^{t+1}=X'_{\text{best}}(t)+b_1\oplus(X_{\text{best}}(t)-X'_{\text{best}}(t))\tag{6} Xi,jt+1=Xbest(t)+b1(Xbest(t)Xbest(t))(6)其中, X best ′ ( t ) X'_{\text{best}}(t) Xbest(t)为第 t t t代最优解的反向解, u b ub ub l b lb lb分别是上下界, r r r是服从 ( 0 , 1 ) (0,1) (0,1)标准均匀分布的 1 × d 1×d 1×d( d d d为空间维数)的随机数矩阵, b 1 b_1 b1表示信息交换控制参数,公式如下: b 1 = ( i t e r max ⁡ − t i t e r max ⁡ ) t (7) b_1=\left(iter_{\max}-\frac{t}{iter_{\max}}\right)^t\tag{7} b1=(itermaxitermaxt)t(7)为进一步提升算法寻优性能,将柯西变异算子扰动策略融入到麻雀算法中,数学表达式如下: X i , j t + 1 = X best ( t ) + c a u c h y ( 0 , 1 ) ⊕ X best ( t ) (8) X_{i,j}^{t+1}=X_{\text{best}}(t)+cauchy(0,1)\oplus X_{\text{best}}(t)\tag{8} Xi,jt+1=Xbest(t)+cauchy(0,1)Xbest(t)(8)其中, c a u c h y ( 0 , 1 ) cauchy(0,1) cauchy(0,1)为标准柯西分布。柯西分布随机变量生成函数为 η = tan ⁡ [ ( ξ − 0.5 ) π ] \eta=\tan[(\xi-0.5)\pi] η=tan[(ξ0.5)π]
    为进一步提升算法寻优性能,采取一种动态选择策略更新目标位置,将反向学习策略和柯西变异算子扰动策略在一定概率下交替执行,动态更新目标位置。反向学习策略中,通过反向学习机制得到反向解,扩大算法的搜索领域。柯西变异策略中,运用柯西变异算子在最优解位置进行扰动变异操作得出新解,改善了算法跌入局部区域的缺陷。至于采取何种策略进行目标位置更新,由选择概率 P s P_s Ps决定,其计算公式如下: P s = exp ⁡ ( 1 − t i t e r max ⁡ ) − 20 + θ (9) P_s=\exp\left(1-\frac{t}{iter_{\max}}\right)^{-20}+\theta\tag{9} Ps=exp(1itermaxt)20+θ(9)其中, θ \theta θ为调整参数,其值可取0.05。
    具体选择策略方式如下:
    如果 r a n d < P s rand<P_s rand<Ps,选择式(5)~(7)反向学习策略进行位置更新,否则选取式(8)柯西变异扰动策略进行目标位置更新。通过上述两种扰动策略虽然能增强算法跃出局部空间的能力,但是无法确定扰动变异之后得到的新位置要优于原位置的适应度值,因此在进行扰动变异更新后,引入贪婪规则,通过比较新旧两个位置的适应度值,确定是否要更新位置。贪婪规则如式(10)所示, f ( x ) f(x) f(x)表示 x x x的位置适应度值。 X best ( t ) = { X i , j t + 1 ,     f ( X i , j t + 1 ) < f ( X best ( t ) ) X best ( t ) ,    f ( X i , j t + 1 ) ≥ f ( X best ( t ) ) (10) X_{\text{best}}(t)=\begin{dcases}X_{i,j}^{t+1},\quad\,\,\, f(X_{i,j}^{t+1})<f(X_{\text{best}}(t))\\X_{\text{best}}(t),\,\,f(X_{i,j}^{t+1})≥f(X_{\text{best}}(t))\end{dcases}\tag{10} Xbest(t)={Xi,jt+1,f(Xi,jt+1)<f(Xbest(t))Xbest(t),f(Xi,jt+1)f(Xbest(t))(10)融合柯西变异和反向学习的改进麻雀算法步骤如下:
    (1)初始化参数,如种群数量 N N N、最大迭代次数 i t e r max ⁡ iter_{\max} itermax、发现者比例 P D PD PD、侦察者比例 S D SD SD、警戒阈值 R 2 R_2 R2等,并利用式(1)的Sin混沌映射初始化麻雀种群。
    (2)计算各只麻雀的适应度值,找出当前最优适应度值和最差适应度值,以及相对应的位置。
    (3)从适应度值较优的麻雀中,选取部分麻雀作为发现者,并按照式(3)更新位置。
    (4)余下麻雀作为跟随者,并按照原方式更新位置。
    (5)从麻雀中随机选择部分麻雀作为警戒者,并按照式(4)更新位置。
    (6)根据概率 P s P_s Ps选择柯西变异扰动策略和反向学习策略对当前最优解进行扰动,产生新解。
    (7)依据贪婪规则式(10),确定是否进行位置更新。
    (8)判断是否达到结束条件,若是,则进行下一步,否则跳转步骤(2)。
    (9)程序结束,输出最优结果。

    二、仿真实验与结果分析

    基于8个基准测试函数(文献[1]中表2所示),比较ISSA与3种基本算法SSA、GWO和MFO,以及两种改进的麻雀算法ASSA(Adaptive sparrow search algorithm, 引进自适应权重)和CASSA(Cauchy adaptive sparrow search algorithm, 引进自适应权重和在跟随者中引入柯西变异策略)的性能。测试函数中包括单峰、多峰函数,维度 d d d为30。为公平验证ISSA算法有效性,测试在同一运行环境下进行,运用MATLAB 2018a版本完成仿真,操作系统Microsoft Windows 10,通用条件设置为相同,种群数量为30,迭代次数为500,各算法独立运行50次。各个算法的参数设置如文献[1]中表1所示。
    结果显示如下:
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    函数:F1
    GWO:最优值: 7.5132e-32,最差值:1.2288e-29,平均值:1.3283e-30,标准差:2.0063e-30
    MFO:最优值: 0.45686,最差值:20003.0646,平均值:2009.5863,标准差:4945.7449
    SSA:最优值: 0,最差值:4.5222e-61,平均值:9.0444e-63,标准差:6.3954e-62
    ASSA:最优值: 0,最差值:0,平均值:0,标准差:0
    CASSA:最优值: 0,最差值:0,平均值:0,标准差:0
    ISSA:最优值: 0,最差值:0,平均值:0,标准差:0
    函数:F2
    GWO:最优值: 1.6247e-19,最差值:5.1636e-18,平均值:1.332e-18,标准差:9.7995e-19
    MFO:最优值: 0.12604,最差值:110.0005,平均值:30.6629,标准差:20.3443
    SSA:最优值: 6.1108e-217,最差值:1.1224e-30,平均值:2.2708e-32,标准差:1.587e-31
    ASSA:最优值: 0,最差值:0,平均值:0,标准差:0
    CASSA:最优值: 0,最差值:0,平均值:0,标准差:0
    ISSA:最优值: 0,最差值:0,平均值:0,标准差:0
    函数:F3
    GWO:最优值: 2.192e-05,最差值:0.045264,平均值:0.0051609,标准差:0.009813
    MFO:最优值: 3822.1626,最差值:61455.5377,平均值:18887.3194,标准差:12808.2499
    SSA:最优值: 0,最差值:3.8784e-57,平均值:1.4693e-58,标准差:7.2827e-58
    ASSA:最优值: 0,最差值:0,平均值:0,标准差:0
    CASSA:最优值: 0,最差值:0,平均值:0,标准差:0
    ISSA:最优值: 0,最差值:0,平均值:0,标准差:0
    函数:F4
    GWO:最优值: 25.632,最差值:28.5193,平均值:26.7874,标准差:0.76022
    MFO:最优值: 3266.2283,最差值:9968870276.4848,平均值:199710747.8225,标准差:1409763368.0644
    SSA:最优值: 2.0808e-08,最差值:0.00090133,平均值:9.96e-05,标准差:0.00017993
    ASSA:最优值: 7.2308e-11,最差值:0.0014502,平均值:0.0001079,标准差:0.00024123
    CASSA:最优值: 6.9142e-08,最差值:0.00049725,平均值:7.1269e-05,标准差:0.00011452
    ISSA:最优值: 7.1336e-09,最差值:0.00040102,平均值:6.8647e-05,标准差:9.7911e-05
    函数:F5
    GWO:最优值: 0.0010827,最差值:0.011718,平均值:0.0034827,标准差:0.0019428
    MFO:最优值: 0.068357,最差值:27.011,平均值:2.7544,标准差:5.2813
    SSA:最优值: 2.0498e-05,最差值:0.0018461,平均值:0.00038101,标准差:0.00031974
    ASSA:最优值: 1.013e-06,最差值:0.00061696,平均值:0.00014482,标准差:0.00014451
    CASSA:最优值: 2.819e-06,最差值:0.0004449,平均值:0.00014518,标准差:0.0001195
    ISSA:最优值: 5.7858e-06,最差值:0.0012695,平均值:0.00020556,标准差:0.0002197
    函数:F6
    GWO:最优值: 3.3825,最差值:169.4004,平均值:20.9614,标准差:23.3429
    MFO:最优值: 69.7055,最差值:249.847,平均值:162.1283,标准差:34.6654
    SSA:最优值: 0,最差值:0,平均值:0,标准差:0
    ASSA:最优值: 0,最差值:0,平均值:0,标准差:0
    CASSA:最优值: 0,最差值:0,平均值:0,标准差:0
    ISSA:最优值: 0,最差值:0,平均值:0,标准差:0
    函数:F7
    GWO:最优值: 1.1546e-14,最差值:3.2863e-14,平均值:2.1423e-14,标准差:4.5559e-15
    MFO:最优值: 1.3597,最差值:19.9647,平均值:16.3167,标准差:6.2405
    SSA:最优值: 8.8818e-16,最差值:8.8818e-16,平均值:8.8818e-16,标准差:0
    ASSA:最优值: 8.8818e-16,最差值:8.8818e-16,平均值:8.8818e-16,标准差:0
    CASSA:最优值: 8.8818e-16,最差值:8.8818e-16,平均值:8.8818e-16,标准差:0
    ISSA:最优值: 8.8818e-16,最差值:8.8818e-16,平均值:8.8818e-16,标准差:0
    函数:F8
    GWO:最优值: 0,最差值:0.030168,平均值:0.0034072,标准差:0.0068993
    MFO:最优值: 0.61523,最差值:181.0182,平均值:22.5438,标准差:49.9339
    SSA:最优值: 0,最差值:0,平均值:0,标准差:0
    ASSA:最优值: 0,最差值:0,平均值:0,标准差:0
    CASSA:最优值: 0,最差值:0,平均值:0,标准差:0
    ISSA:最优值: 0,最差值:0,平均值:0,标准差:0
    

    结果表明,ISSA与其余5种算法相比,收敛速度更快,精度更高,全局寻优能力得到较大提升。

    三、参考文献

    [1] 毛清华,张强.融合柯西变异和反向学习的改进麻雀算法[J].计算机科学与探索,2021,15(6):1155-1164.

    展开全文
  • 文章目录一、理论基础1、樽海鞘群优化算法2、改进的樽海鞘群优化算法(1)折射反向学习机制(2)自适应控制因子(3)RCSSA算法二、仿真实验与结果分析三、参考文献四、Matlab仿真程序 一、理论基础 1、樽海鞘群优化...

    一、理论基础

    1、樽海鞘群优化算法

    请参考这里

    2、改进的樽海鞘群优化算法

    与其他元启发式算法类似,原SSA算法也存在收敛速度慢、容易陷入局部最优等缺点。为此本文从两个方面对其进行改进:首先,在种群个体更新时采用折射反向学习机制,从而提高种群多样性,避免算法陷入局部最优;其次,在追随者位置更新中引入自适应控制因子,进一步提高求解精度和收敛速度。

    (1)折射反向学习机制

    折射反向学习(Refracted Opposition-Based Learning,ROBL)是一种新型的算法改进机制,其本质是在反向学习的基础上,结合光的折射定律来寻找更优的候选解。近年被用于改进原粒子群优化算法与飞蛾扑火算法等,已被证明能够在不同程度上改善基本算法的性能。ROBL的具体数学原理请参考文献[1]。这里给出在SSA再改进的公式: x i , j ∗ = a j + b j 2 + a j + b j 2 k − x i , j k (1) x_{i,j}^*=\frac{a_j+b_j}{2}+\frac{a_j+b_j}{2k}-\frac{x_{i,j}}{k}\tag{1} xi,j=2aj+bj+2kaj+bjkxi,j(1)其中, x i , j x_{i,j} xi,j表示当前种群中第 i i i个体在第 j j j维上位置, x i , j ∗ x_{i,j}^* xi,j x i , j x_{i,j} xi,j的折射反向解, a j , b j a_j,b_j aj,bj分别为搜索空间上第 j j j维的最小值和最大值。

    (2)自适应控制因子

    本文提出将控制因子 c 1 c_1 c1引入追随者的位置更新,此时追随者也能够与引导者一样,产生自适应更新,从而提高算法跳出局部最优的能力,并加快整体的收敛速度。新的追随者公式为 x i , j = c 1 2 ( x i , j + x i − 1 , j ) (2) x_{i,j}=\frac{c_1}{2}(x_{i,j}+x_{i-1,j})\tag{2} xi,j=2c1(xi,j+xi1,j)(2)

    (3)RCSSA算法

    综合上述策略对基本SSA算法进行改进后,得到的RCSSA算法实现流程如下:
    Step 1:设置算法参数:种群规模 N N N,最大迭代次数 T T T,搜索维数 D D D,搜索范围 [ l b , u b ] [lb,ub] [lb,ub];随机生成樽海鞘种群;
    Step 2:计算每个个体的适应度值,将适应度值最小的个体位置作为食物源;
    Step 3:更新控制因子 c 1 c_1 c1,判断当前种群数是否超过 N / 2 N/2 N/2:超过则进入Step 5,否则进入Step 4;
    Step 4:更新随机数 c 2 , c 3 c_2,c_3 c2,c3,更新每个引导者个体的位置,同时采用式(1)计算其折射反向解,比较二者适应度大小,取较小的一个个体作为新的位置,并进入Step 6;
    Step 5:采用引入控制因子c_1的式(2)来更新每个追随者个体的位置,并计算其折射反向解,比较二者适应度大小,取较小的一个个体为新的位置;
    Step 6:比较食物源和当前樽海鞘最优个体的适应度大小,取较小的一个为新的食物源;
    Step 7:若当前迭代次数达到最大迭代次数 T T T,则输出最优个体,即算法找到的最优解;否则,返回Step 2。

    二、仿真实验与结果分析

    利用RCSSA算法对23个基准测试函数进行寻优求解,并与基本SSA、仅加入折射反向学习机制的SSA算法(RSSA)以及仅采用自适应控制因子的SSA算法(CSSA)进行对比,以验证所提综合改进策略的效果。此外,选择了5种群智能算法进行对比测试,这5种算法分别为:PSO,GWO,WOA,多元宇宙优化算法(MVO)和正弦余弦算法(SCA)。
    为了对比的公平性,将所有算法的参数设置为一致:迭代次数设为500,种群规模均设为30,控制因子初始值均设为2。其余算法参数按原论文进行取值,其中,RCSSA与RSSA中的缩放因子k=10000。独立运行30次。以F1、F2、F3为例。
    下图为F1寻优的对比曲线。
    在这里插入图片描述9种算法对F1函数寻优的最大值、最小值、平均值及标准差如下所示:

    函数:F1
    SSA:最大值: 8.8452e-07,最小值:2.8193e-08,平均值:1.2572e-07,标准差:1.6191e-07
    RSSA:最大值: 5.988e-146,最小值:3.0939e-146,平均值:4.3496e-146,标准差:5.667e-147
    CSSA:最大值: 2.4874e-217,最小值:1.2946e-217,平均值:1.7201e-217,标准差:0
    PSO:最大值: 0.19683,最小值:0.035963,平均值:0.11158,标准差:0.041565
    GWO:最大值: 1.4386e-26,最小值:6.4863e-30,平均值:1.4198e-27,标准差:2.701e-27
    WOA:最大值: 2.2124e-69,最小值:3.2704e-89,平均值:7.3823e-71,标准差:4.0392e-70
    MVO:最大值: 2.0713,最小值:0.42499,平均值:1.1223,标准差:0.37768
    SCA:最大值: 311.2178,最小值:0.026935,平均值:28.0026,标准差:61.5479
    RCSSA:最大值: 0,最小值:0,平均值:0,标准差:0
    

    下图为F2寻优的对比曲线。
    在这里插入图片描述9种算法对F2函数寻优的最大值、最小值、平均值及标准差如下所示:

    函数:F2
    SSA:最大值: 7.3722,最小值:0.033718,平均值:1.7825,标准差:1.5009
    RSSA:最大值: 1.2157e-73,最小值:8.1551e-74,平均值:1.0135e-73,标准差:9.3303e-75
    CSSA:最大值: 2.3741e-109,最小值:1.5298e-109,平均值:1.9638e-109,标准差:2.2992e-110
    PSO:最大值: 13.347,最小值:1.4553,平均值:5.0527,标准差:2.853
    GWO:最大值: 2.8264e-16,最小值:1.8844e-17,平均值:1.1082e-16,标准差:6.8351e-17
    WOA:最大值: 5.5959e-51,最小值:1.2914e-58,平均值:6.2327e-52,标准差:1.3067e-51
    MVO:最大值: 2.0343,最小值:0.41567,平均值:0.90537,标准差:0.33768
    SCA:最大值: 0.07071,最小值:5.912e-05,平均值:0.019241,标准差:0.022942
    RCSSA:最大值: 2.2982e-173,最小值:1.4374e-173,平均值:1.8867e-173,标准差:0
    

    下图为F3寻优的对比曲线。
    在这里插入图片描述9种算法对F3函数寻优的最大值、最小值、平均值及标准差如下所示:

    函数:F3
    SSA:最大值: 4847.6763,最小值:499.0865,平均值:2223.7686,标准差:1132.344
    RSSA:最大值: 3.9855e-145,最小值:6.6326e-146,平均值:1.6626e-145,标准差:7.8808e-146
    CSSA:最大值: 1.4113e-215,最小值:2.5987e-217,平均值:2.2568e-216,标准差:0
    PSO:最大值: 73.2788,最小值:11.7537,平均值:34.6871,标准差:15.9091
    GWO:最大值: 0.00016388,最小值:1.6624e-08,平均值:1.3809e-05,标准差:3.5873e-05
    WOA:最大值: 58392.852,最小值:29435.7149,平均值:43614.7392,标准差:6559.6644
    MVO:最大值: 636.9562,最小值:86.562,平均值:237.1057,标准差:116.2842
    SCA:最大值: 18522.7777,最小值:1250.9147,平均值:7336.1166,标准差:5109.4863
    RCSSA:最大值: 0,最小值:0,平均值:0,标准差:0
    

    结果表明:所提RCSSA算法可以有效提升原SSA算法的优化性能,其在整体性能上要明显优于GWO、WOA、SCA等多个当前最先进的群智能优化算法,并适用于处理高维函数优化问题。

    三、参考文献

    [1] 范千, 陈振健, 夏樟华. 一种基于折射反向学习机制与自适应控制因子的改进樽海鞘群算法[J]. 哈尔滨工业大学学报, 2020, 52(10): 183-191.

    展开全文
  • 针对黏菌算法的缺点,本文将两种算法结合并利用随机反向学习策略提高收敛速度,提出一种融合随机反向学习策略的黏菌与算术混合优化算法(HSMAAOA)。改进算法保留了SMA全局探索部分位置更新公式,局部开发阶段将乘除...
  • 文章目录一、理论基础1、鲸鱼优化算法2、改进鲸鱼优化算法(1)混沌序列初始化(2)逐维小孔成像反向学习(3)融合贝塔分布和逆不完全Γ\GammaΓ函数的权重(4)改进算法流程二、仿真实验和结果分析三、参考文献四、...
  • 提出一种基于混沌和精英反向学习的混合灰狼优化算法以解决高维优化问题.首先,采用混沌序列产生初始种群为算法进行全局搜索奠定基础;然后,对当前精英个体分别执行精英反向学习策略以协调算法的勘探和开采能力;最后,在...
  • 文章目录一、理论基础1、布谷鸟搜索算法2、DA-DOCS算法(1)逐维反向学习策略(2)动态适应(3)DA-DOCS算法流程二、实验与结果分析三、参考文献四、Matlab仿真程序 一、理论基础 1、布谷鸟搜索算法 请参考这里。 2...
  • 深度学习的发展趋势 回顾一下deep learning的历史: 1958: Perceptron (linear model) 1969: Perceptron has limitation 1980s: Multi-layer perceptron Do not have significant difference from DNN today 1986: ...
  • 文章目录一、理论基础1、哈里斯鹰优化算法2、改进哈里斯鹰优化算法(1)基于反向学习(2)基于准反向学习(3)基于准反射学习二、仿真实验与分析三、参考文献四、Matlab仿真程序 一、理论基础 1、哈里斯鹰优化算法 ...
  • 机器学习-反向传播

    2021-05-18 22:10:48
    机器学习-反向传播简单易懂的解释 直观理解: 数学层面讲,反向传播就是链式求导法则 程序实现讲,反向传播就是通过动态规划实现 思想: 根据网络输出的答案和正确答案之间的误差,不断调整网络的参数。 假设训练一...
  • 深度学习-反向传播

    2021-03-18 18:58:38
    观看b站up:霹雳吧啦Wz的课程学习笔记 误差的计算 softmax激活函数: 输出的y1,y2并不满足规则分布,为使得其服从概率分布,进行表达式处理。 此时O1+O2=1 损失的计算(交叉熵损失) 1.多分类:softmax 例如:...
  • 反向的作业同样也是一个识别手写数字的任务,需要定义带正则化的代价函数、随机初始化矩阵函数、正向传播函数、反向传播函数等。下面附上代码,有详细的注释,这里就不一一解释了。 import numpy as np import ...
  • 本章我们将学习一个能够高效计算权重参数的梯度的方法——误差反向传播法。 要正确理解误差反向传播法,我个人认为有两种方法:一种是基于数学式; 另一种是基于计算图(computational graph)。前者是比较常见的...
  • 1. 深度学习基础 1.1 深度学习的发展史 物有本末,事有终始,知所先后,则近道矣。 1958: Perceptron (linear model) 1969: Perceptron has limitation(无法执行基本的“异或”逻辑运算) 1980s: Multi-layer ...
  • : 每次反向传播的数据要清零,否则梯度值是每次计算相加的总额 4 运行结果部分截图如下所示: 本节课作业如下链接: 深度学习——Pytorch反向传播学习实例(B站刘二大人P4作业)_Learning_AI的博客-CSDN博客
  • 文章目录两个反向传播背景代码实现可学习参数背景代码实现 两个反向传播 背景 设计一个网络存在两个阶段,第一阶段的输出作为第二阶段的输入,并且在两个阶段的结束都分别有引入监督。此时不想简单将两个阶段的损失...
  • 反向传播算法(BP算法)学习总结 1、简介   BP算法是由学习过程由信号的正向传播与误差的反向传播两个过程组成。由于多层前馈网络的训练经常采用误差反向传播算法,人们也常把将多层前馈网络直接称为BP网络。 正向...
  • 当前,深度学习已经应用到很多领域:无人驾驶汽车,黑科技以及图像分类等等,这些前沿的科技也面临许多挑战,如无人驾驶...深度学习的过程可以分为前向传播和反向传播两个过程,前向传播。 简单来说,前向传播过程就是
  • 深度学习_误差反向传播法 参考书籍:深度学习入门_基于python的 理论与实现 正向传播:从计算图出发点到结束点的传播 反向传播:从计算图结束点到出发点的传播 局部计算:无论全局发生了什么,都能只根据与...
  • 一、损失函数 例如:试卷总计100分,其中选择题30分、判断题20分、简答题50分 ...2、为我们更新输出提供一定的依据(反向传播) 1)L1Loss L1Loss x:1,2,3 y:1,2,5 L1Loss = (0 + 0 ...
  • 深度学习框架如Tensorflow Pytorch 等最重要的功能之一即自动对网络模型进行了前向传播和反向梯度传播计算,从而对应用开发人员屏蔽了底层算法实现的细节,很容易进行网络模型的training、evalution、testing 最终...
  • 梯度下降和反向传播1. 梯度是什么?2. 偏导的计算2.1 常见的导数计算2.2 多元函数求偏导3. 反向传播算法3.1 计算图和反向传播3.2 神经网络中的反向传播3.2.1 神经网络的示意图3.2.2 神经网络的计算图 1. 梯度是什么? ...
  • 在这一节的学习中,学习反向传播相关知识,对于反向传播算法,同样也是通过三个方面来进行总结:反向传播算法是什么?为什么需要反向传播?如何实现反向传播? 反向传播算法是什么? 回顾之前学习的简易的线性...
  • 误差反向传播算法系统解决了多层神经网络隐含层连接权学习问题,人们把采用这种算法进行误差校正的多层前馈网络称为BP网。BP神经网络具有任意复杂的模式分类能力和优良的多维函数映射能力,解决了简单感知器不能解决...
  • 整个circuit如下所示:   上图中的输入是[x0,x1],神经元的(待学习)权重是[w0,w1,w2]。sigmoid神经元可以将输入缩放到0~1的范围内。下面对这个图上的每一个红色数字的由来都进行讲解: 1.00。最右侧的1.00是...
  • 池化层:Max Pooling和Average ...标题反向传播: 最大池化反向传播中的卷积核中最大值的所在位置和前向计算最大值所在的位置一致,其他位置补0。 平均池化的反向传播中的卷积核中的值是将已知的值求平均值。 ...
  • 反向传播算法(BP算法)是一种启发式的方法,没有生物学基础 收敛速度缓慢 计算量大 需要大量的带标签数据,对于人来说,识别一个物体只需要1-2张样本数量。
  • 什么是正向传播网络?...反向传播(Backpropagation algorithm)全称“误差反向传播”,是在 深度神经网络中,根据输出层输出值,来反向调整隐藏层权重的一种方法。 为什么需要反向传播? 为什么不直接使用梯度
  • 文章目录前言一、深度学习的三个步骤Step1:神经网络Step2: 模型评估Step3:选择最优函数二、反向传播机制链式法则前向传播反向传播总结 前言 本文对深度学习的步骤做了一个简单的介绍,以及一个很重要的机制—反向...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 211,926
精华内容 84,770
关键字:

反向学习