(以下描述,均不是学术用语,仅供大家快乐的阅读)
阿基米德算法(Archimedes optimization algorithm)是受阿基米德浮力定律启发而提出的优化算法。算法发表于2020年,新算法一枚。
该算法主要模拟了浮力定律,每个个体除了位置之外,还有密度、体积和加速度这三个属性,通过改变个体的密度和体积来调节个体的加速度,加速度和当前位置决定个体的新位置
阿基米德算法中,每个个体有四个属性:
每次迭代会依次更新个体的密度、体积、加速度和位置,其中加速度和位置会根据迭代次数分阶段更新。
算法迭代过程中,个体的密度和体积都在向着全局最优个体的密度和体积靠近。
其中为第i个个体密度的第d维值,为第i个个体体积的第d维值。可以看出,密度和体积的更新公式相似,都是向着最优个体的密度和体积靠近。
当TF<=0.5时,进入第一阶段。TF计算公式如下:
其图像如下:
可以看出算法在约前30%迭代时会进入该阶段,在剩下的70%迭代中会进入第二阶段。
该阶段中个体的加速度按照如下公式计算:
公式(4)中r为群体中随机个体的编号。公式(5)则表示将所有个体的加速度归一下,线性映射到[l,u]内,其中l取值为0.1,u取值为0.9。
得到归一化后的加速度后,可用于计算其新位置:
公式(6)中r为种群中随机个体的编号,C1为常量,一般取值为2,rand为取值在[0,1]的均匀随机数。公式(6)表示该个体向随机个体移动了一小步。
公式(7)的图像如下:
得到新位置后,如果新位置优于原位置则移动到该位置,否则保持不动。
当TF>0.5时,进入第二阶段,第二阶段的计算公式与第一阶段较为相似,只是将个体的出发点变为了全局最优位置,其具体计算公式如下:
其中F随机在{-1,1}中取值,C2取值为6,C3取值为2,rand为[0,1]内均匀分布随机数,T最大取值为1,若T>1则取其值为1。
从上述公式可以看出阶段2是以全局最优位置为起点,向自身移动一段距离。
得到新位置后,如果新位置优于原位置则移动到该位置,否则保持不动。
算法在阶段1和阶段2后需要添加贪心步骤,保证当前位置不差于之前的位置。如果某个个体优于全局最优,除了记录其位置作为新的最优位置,还需要额外记录该个体的密度、体积和加速度,以便下次迭代的阶段2使用。
个人感觉阿基米德优化算法与之前的万有引力算法比较像,像是对受力进行了归一化的万有引力算法。不过阿基米德优化算法使用了两个阶段以不同的方式去搜索,阶段1以自身为起点,搜索范围较大但是步长小,阶段2以最优解为起点,搜索范围较小,但是步长大。
适应度函数。
实验一:
问题维度(维度) | 2 |
总群数量(种群数) | 20 |
最大迭代次数 | 50 |
取值范围 | (-100,100) |
实验次数 | 10 |
C1 | 2 |
C2 | 6 |
C3 | 2 |
从图像看算法的性能还是不错的,虽然由于阶段2的步长较长,容易超出边界,但是还阶段的搜索能力还是很不错的,最终还是收敛到了正解附近。
值 | |
---|---|
最优值 | 5.946754698793426E-9 |
最差值 | 8.60629838153433E-4 |
平均值 | 8.630576946952844E-5 |
从结果也可以看出其性能还是很不错的,算法也相对比较稳定,简单的测试似乎已经无法测试其性能了。
就这样吧,普通修改似乎也无法让其拥有更好的性能,毕竟“天下没有免费的午餐”。
阿基米德优化算法是受阿基米德浮力定律启发而提出的优化算法。通过个体的密度和体积计算其加速度进而确定其位置。位置的确定有两个阶段,阶段1以自身为起点,向随机个体前进一小步,全局搜索,快速收敛,阶段2以最优个体为起点,向自身前进一大步,为局部搜索。算法明确两个阶段的搜索方式,结果还是不错的,如果能加入一点跳出局部最优就更好了。
参考文献
Hashim F A , Hussain K , Houssein E H , et al. Archimedes optimization algorithm: a new metaheuristic algorithm for solving optimization problems[J]. Applied Intelligence, 2020:1-21.
提取码:a83n
原文代码 提取码:a83n
以下指标纯属个人yy,仅供参考
指标 | 星数 |
---|---|
复杂度 | ★★★☆☆☆☆☆☆☆ |
收敛速度 | ★★★★★☆☆☆☆☆ |
全局搜索 | ★★★★★☆☆☆☆☆ |
局部搜索 | ★★★★★☆☆☆☆☆ |
优化性能 | ★★★★★☆☆☆☆☆ |
跳出局部最优 | ★☆☆☆☆☆☆☆☆☆ |
改进点 | ★★☆☆☆☆☆☆☆☆ |