一、蛇优化算法优化RBF神经网络的扩散速度原理介绍
RBF神经网络的扩散速度通常与它的径向基函数的宽度参数(σ)有关,这个参数控制了函数的径向作用范围。在高斯核函数中,当σ值较大时,函数的扩散速度较快,即它的影响范围更广,对输入数据的局部变化不太敏感;而σ值较小时,函数的扩散速度较慢,影响范围较小,对输入数据的局部变化更加敏感 。
RBF神经网络通过使用高斯函数作为隐含层激活函数,实现了从低维空间到高维空间的非线性映射。这种映射是非线性的,而网络输出对可调参数(权重)是线性的,因此可以通过线性方程组直接解出权重,从而加快学习速度并避免局部极小问题 。
在RBF网络中,每个隐含层节点的激活函数都以一个中心点为中心,当输入数据点接近这些中心点时,相应的激活值会更高,远离中心点时激活值则会下降。因此,RBF网络的扩散速度可以被视为其在特征空间中对输入变化的响应速度,这与基函数的宽度参数密切相关 。
蛇优化算法(Snake Optimization, SO)在解决全局优化问题时表现出了良好的性能,可以用于对RBF神经网络的扩散速度的寻优。
二、部分代码
以5个输入,2个输出的数据集为例,采用蛇优化算法优化RBF神经网络的扩散速度,实现多数入多输出数据的预测误差最小。可以自行更改数据集
close all % 关闭开启的图窗
clear % 清空变量
clc % 清空命令行
%% 导入数据
res = load('data.txt');
%% 划分训练集和测试集
temp = randperm(1000);%打乱数据集序号
Train=800;%训练数据
D=5;%数据集的变量个数
P_train = res(temp(1: Train), 1 : D)';
T_train = res(temp(1: Train), D+1:end)';
M = size(P_train, 2);
P_test = res(temp(Train+1: end), 1 : D)';
T_test = res(temp(Train+1: end),D+1:end)';
N = size(P_test, 2);
%% 数据归一化
[p_train, ps_input] = mapminmax(P_train, 0, 1);
p_test = mapminmax('apply', P_test, ps_input);
[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);
%% 优化算法求解RBF神经网络的最优扩散速度
pop = 20; %种群数量
Max_iter = 30; %最大迭代次数
lb = 0.00001; %下边界
ub = 1; %上边界
dim = 1; %维度
fobj=@(X)fobj(X,p_train,t_train,p_test,t_test);
[ Best_score, Best_P,curve] = SO(pop, Max_iter, lb, ub, dim, fobj);
三、部分结果:
对于第一个输出:
训练集数据的R2为:1
测试集数据的R2为:0.99877
训练集数据的MAE为:4.5318e-13
测试集数据的MAE为:2.414
训练集数据的MBE为:1.9725e-13
测试集数据的MBE为:0.092719
对于第二个输出:
训练集数据的R2为:1
测试集数据的R2为:0.99754
训练集数据的MAE为:2.4591e-14
测试集数据的MAE为:0.2266
训练集数据的MBE为:-9.3681e-15
测试集数据的MBE为:-0.0011076
四、完整MATLAB代码
下方名片