文章目录
- 【`获取资源`请见文章第5节:资源获取】
- 1. 光学显微镜算法(OMA)
- 1.1 物镜放大倍数
- 1.2 目镜放大倍数
- 2. 改进后的IOMA算法
- 2.1 透镜成像折射方向学习
- 3. 部分代码展示
- 4. 仿真结果展示
- 5. 资源获取说明
【获取资源
请见文章第5节:资源获取】
1. 光学显微镜算法(OMA)
光学显微镜算法(Optical Microscope Algorithm,OMA)是受显微镜放大倍数启发的一种新的元启发式算法,可用于解决工程优化问题。
新颖的 OMA 具有鲁棒性、易于实现且使用较少控制参数的特点,可用于解决各种数值优化问题。
OMA 是一种基于物理的算法,它模拟观察者放大物体的过程,从观察者的眼睛开始,然后通过显微镜镜头。OMA用于获得最佳目标对象的四步过程如下图所示。
1.1 物镜放大倍数
该算法中目标物体的放大倍数遵循复合显微镜使用的放大原理,并使用公式(1)进行建模。
M
t
o
t
a
l
=
M
O
∗
M
E
(1)
M_{total}=M_{O}*M_{E}\tag1
Mtotal=MO∗ME(1)
其中,
M
t
o
t
a
l
M_{total}
Mtotal代表显微镜的总视觉放大倍数,
M
O
M_{O}
MO是物镜的放大倍数,
M
E
M_{E}
ME并且是目镜的放大倍数。物镜的放大倍率方程一般用用公式(2)表示:
M
O
=
L
f
0
(2)
M_{O}=\frac{L}{f_{0}}\tag2
MO=f0L(2)
其中,
L
L
L是显微镜的镜筒长度,
f
0
f_{0}
f0是物镜的焦距。要计算这两个值,需要从最佳目标对象的位置进行参考(
M
b
e
s
t
M_{best}
Mbest),用物镜放大。
修改后的目标对象
M
i
,
n
e
w
M_{i,new}
Mi,new的数学表达式为:
M
i
,
n
e
w
=
M
i
+
m
r
∗
1.40
∗
M
b
e
s
t
(3)
M_{i,new}=M_{i}+m^{r}*1.40*M_{best}\tag3
Mi,new=Mi+mr∗1.40∗Mbest(3)
修改后的目标对象(
M
i
,
n
e
w
M_{i,new}
Mi,new)然后与当前物体进行比较,选择两者中较好的一个作为最佳放大倍数。
1.2 目镜放大倍数
显微镜的第二个透镜是目镜,它是继物镜之后用来放大物体的。目镜的放大倍率方程一般用公式(4)表示:
M
O
=
D
f
e
(4)
M_{O}=\frac{D}{f_{e}}\tag4
MO=feD(4)
其中,
D
D
D是最短视觉距离,
f
e
f_{e}
fe并且是目镜的焦距。目镜阶段是高级放大倍率的更具体的阶段。因此,为了确定两者的长度,需要从用目镜放大的局部搜索空间的距离作为参考。
为了模拟目镜的放大效果,根据所选目标物体之间的距离确定放大空间(
i
i
i)和群体中的另一个目标对象(
j
j
j)。目标对象(
i
i
i)被随机选择来计算局部搜索空间。
这种修改后的放大倍数被认为是对本地搜索空间的有效利用。公式(5)和(6)分别用于模拟目标物体的放大和修改模式。
s
p
a
c
e
=
{
M
j
−
M
i
,
i
f
f
(
M
i
)
>
=
f
(
M
j
)
M
i
−
M
j
,
i
f
f
(
M
i
)
<
f
(
M
j
)
(5)
space=\left\{\begin{matrix}M_{j}-M_{i},\quad if \quad f(M_{i})>=f(M_{j}) \\M_{i}-M_{j},\quad if \quad f(M_{i})<f(M_{j}) \end{matrix}\right.\tag5
space={Mj−Mi,iff(Mi)>=f(Mj)Mi−Mj,iff(Mi)<f(Mj)(5)
M
i
,
n
e
w
=
M
i
+
m
r
∗
0.55
∗
s
p
a
c
e
(6)
M_{i,new}=M_{i}+m^{r}*0.55*space\tag6
Mi,new=Mi+mr∗0.55∗space(6)
2. 改进后的IOMA算法
2.1 透镜成像折射方向学习
透镜成像折射反向学习策略的思想来自于凸透镜成像的原理。通过基于当前坐标生成一个反向位置来扩展搜索范围,如图1所示。
在二维坐标中,x轴的搜索范围为(a, b), y轴表示一个凸透镜。假设物体A在x轴上的投影为x,高度为h,通过透镜成像,另一侧的图像为A*, A在x轴上的投影为x,高度为h*。通过以上分析,我们可以得到如下公式:
(
a
+
b
)
/
2
−
x
x
∗
−
(
a
+
b
)
/
2
=
h
h
∗
(7)
\frac{(a+b)/2-x}{x^{*}-(a+b)/2 }=\frac{h}{h^{*}} \tag7
x∗−(a+b)/2(a+b)/2−x=h∗h(7)
对公式(7)进行转换,即可得到反向解x*的表达式为:
x
∗
=
a
+
b
2
+
a
+
b
2
k
−
x
k
(8)
x^{*} =\frac{a+b}{2}+\frac{a+b}{2k}-\frac{x}{k} \tag8
x∗=2a+b+2ka+b−kx(8)
其中,
k
=
h
/
h
∗
k=h/h^{*}
k=h/h∗,
a
a
a和
b
b
b可以视为某维度的上下限。本文中的
k
k
k是一个与迭代次数相关的动态自适应值。
3. 部分代码展示
close all
clear
clc
SearchAgents_no=30; % Number of search agents
Function_name='F4'; % Name of the test function that can be from F1 to F23 (Table 1,2,3 in the paper)
Max_iteration=500; % Maximum numbef of iterations
% Load details of the selected benchmark function
[lb,ub,dim,fobj]=Get_Functions_details(Function_name);
[OMA_Best_score,OMA_Best_pos,OMA_cg_curve]=OMA(SearchAgents_no,Max_iteration,lb,ub,dim,fobj);
[IOMA_Best_score,IOMA_Best_pos,IOMA_cg_curve]=IOMA(SearchAgents_no,Max_iteration,lb,ub,dim,fobj);
figure('Position',[500 500 660 290])
% Draw search space
subplot(1,2,1);
func_plot(Function_name);
title('Parameter space')
xlabel('x_1');
ylabel('x_2');
zlabel([Function_name,'( x_1 , x_2 )'])
% Draw objective space
subplot(1,2,2);
semilogy(OMA_cg_curve,'Color','k','Linewidth',1.5)
hold on
semilogy(IOMA_cg_curve,'Color','r','Linewidth',1.5)
title('寻优过程')
xlabel('迭代次数');
ylabel('适应度值曲线');
axis tight
grid on
box on
legend('OMA','IOMA')
display(['The best solution obtained by OMA is : ', num2str(OMA_Best_pos)]);
display(['The best optimal value of the objective funciton found by OMA is : ', num2str(OMA_Best_score)]);
display(['The best solution obtained by IOMA is : ', num2str(IOMA_Best_pos)]);
display(['The best optimal value of the objective funciton found by IOMA is : ', num2str(IOMA_Best_score)]);
4. 仿真结果展示
5. 资源获取说明
可以获取完整代码资源。