目录
- 1.背景
- 2.算法原理
- 2.1算法思想
- 2.2算法过程
- 3.结果展示
- 4.参考文献
1.背景
2022年,Naruei等人受到自然界动物猎食过程启发,提出了猎人猎物算法(Hunter-Prey Optimization, HPO)。
2.算法原理
2.1算法思想
HPO模拟了自然界中动物的捕猎过程,算法的核心思想是:猎人追逐被捕猎物远离群体的个体,并根据被捕猎物的平均位置调整自身位置;而被捕猎物也动态调整自身位置以更安全地躲避捕食者。
2.2算法过程
猎人捕猎:
x ( t + 1 ) = x ( t ) + 0.5 [ ( 2 C Z P pos − x ( t ) ) + ( 2 ( 1 − C ) Z μ − x ( t ) ) ] (1) \begin{aligned}\boldsymbol{x}(t+1)&=\boldsymbol{x}(t)+0.5[(2C\boldsymbol{Z}\boldsymbol{P}_{\text{pos}}-\boldsymbol{x}(t))+(2(1-C)\boldsymbol{Z}\boldsymbol{\mu}-\boldsymbol{x}(t))]\end{aligned}\tag{1} x(t+1)=x(t)+0.5[(2CZPpos−x(t))+(2(1−C)Zμ−x(t))](1)
其中,x(t)表示猎人当前时刻的位置;x(t+1)表示猎人下一时刻的位置;Ppos是当前猎人所追逐猎物的位置,一般选择距离种群平均位置最远个体作为Ppos;μ是当前种群中所有个体位置的平均值;C是探索与开发之间的平衡参数;Z 是算法的自适应参数;μ、C 和 Z 的计算公
式分别为:
μ = 1 N ∑ i = 1 N x i C = 1 − t × ( 0.98 / M a x I t ) Z = R 2 × I D X + R 3 ⊗ ( ∼ I D X ) I D X = R 1 > C (2) \begin{aligned} &\boldsymbol{\mu}=\frac1N\sum_{i=1}^{N}\boldsymbol{x}_{i} \\ &C=1-t\times(0.98/MaxIt) \\ &Z=R2\times\mathbf{IDX}+R3\otimes(\sim\mathbf{IDX}) \\ &\mathbf{IDX}=\mathbf{R}\mathbf{1}>C \end{aligned}\tag{2} μ=N1i=1∑NxiC=1−t×(0.98/MaxIt)Z=R2×IDX+R3⊗(∼IDX)IDX=R1>C(2)
猎物移动:
x i ( t + 1 ) = T p o s + C Z c o s ( 2 π R 4 ) × ( T p o s − x i ( t ) ) (3) x_{i}(t+1)=\boldsymbol{T}_{\mathrm{pos}}+\boldsymbol{CZ}cos(2\pi R4)\times(\boldsymbol{T}_{\mathrm{pos}}-\boldsymbol{x}_{i}(t))\tag{3} xi(t+1)=Tpos+CZcos(2πR4)×(Tpos−xi(t))(3)
HPO的关键是猎人和猎物的身份选择,判断搜索代理以猎人或猎物的身份来进行信息更新:
x i ( t + 1 ) = { x i ( t ) + 0.5 [ ( 2 C Z P p o s − x i ( t ) ) + ( 2 ( 1 − C ) Z μ − x i ( t ) ) ] , R 5 < β x i ( t + 1 ) = T p o s + C Z c o s ( 2 π R 4 ) × ( T p o s − x i ( t ) ) , o t h e r w i s e (4) \boldsymbol{x}_i(t+1)=\begin{cases}\boldsymbol{x}_i(t)+0.5[(2C\boldsymbol{Z}\boldsymbol{P}_{\mathrm{pos}}-\boldsymbol{x}_i(t))+(2(1-\boldsymbol{C})\boldsymbol{Z}\boldsymbol{\mu}-\boldsymbol{x}_i(t))],\boldsymbol{R}\boldsymbol{5}<\boldsymbol{\beta}\\\boldsymbol{x}_i(t+1)=\boldsymbol{T}_{\mathrm{pos}}+C\boldsymbol{Z}cos(2\pi R4)\times(\boldsymbol{T}_{\mathrm{pos}}-\boldsymbol{x}_i(t)),otherwise\end{cases}\quad\tag{4} xi(t+1)={xi(t)+0.5[(2CZPpos−xi(t))+(2(1−C)Zμ−xi(t))],R5<βxi(t+1)=Tpos+CZcos(2πR4)×(Tpos−xi(t)),otherwise(4)
其中,R5是[0,1]内随机数,β为调节参数,值为0.2。如果R5<β,则将该搜索代理视为猎人,根据猎人捕猎机制更新位置;如果R5≥β,则将该搜索代理视为猎物,根据猎物移动机制更新位置。
流程图:
3.结果展示
4.参考文献
[1] Naruei I, Keynia F, Sabbagh Molahosseini A. Hunter–prey optimization: Algorithm and applications[J]. Soft Computing, 2022, 26(3): 1279-1314.