一行实现88个群智能算法优化混合核极限学习机HKELM的多特征输入单输出的数据回归预测Matlab程序全家桶
文章目录
- 前言
- 一行实现88个群智能算法优化混合核极限学习机HKELM的多特征输入单输出的数据回归预测Matlab程序全家桶
- 一、HKELM模型
- 1. 极限学习机(ELM)的基础
- 2. 混合核极限学习机(HKELM)的原理
- 3. HKELM的流程
- 4. 优势与挑战
- 二、实验结果
- 三、核心代码
- 四、代码获取
- 五、总结
前言
一行实现88个群智能算法优化混合核极限学习机HKELM的多特征输入单输出的数据回归预测Matlab程序全家桶
一、HKELM模型
混合核极限学习机(Hybrid Kernel Extreme Learning Machine,HKELM)是一种改进的极限学习机(ELM)模型。它结合了多种核函数的优点,以提高学习性能和模型的泛化能力。以下是HKELM的详细原理和流程:
1. 极限学习机(ELM)的基础
极限学习机(ELM)是一种用于训练单隐层前馈神经网络(SLFN)的算法。ELM的核心思想是:
- 随机化隐层节点:在训练过程中,隐层节点的权重和偏置是随机生成的,不需要进行训练。
- 线性回归训练:仅需对输出权重进行训练,从而大大加快了训练速度。
ELM的训练流程包括:
- 随机生成隐层节点的权重和偏置。
- 计算隐层输出矩阵。
- 通过最小二乘法求解输出权重。
2. 混合核极限学习机(HKELM)的原理
HKELM在ELM的基础上引入了多种核函数,以提高模型的灵活性和性能。其基本思想是:
- 混合核函数:HKELM将多个核函数组合在一起,形成一个复合核,以更好地拟合复杂的数据分布。
- 优化学习性能:通过选择适当的核函数组合,HKELM能够提高模型的泛化能力和学习性能。
3. HKELM的流程
HKELM的流程可以分为以下几个步骤:
-
选择混合核函数:
- 选择适当的核函数(如线性核、径向基核、多项式核等),并定义它们的权重。
- 核函数的选择和组合可以根据具体任务和数据集的特性来决定。
-
计算混合核矩阵:
- 计算每个核函数在训练数据上的核矩阵。
- 使用加权方式将这些核矩阵合成一个混合核矩阵。
-
隐层输出矩阵计算:
- 使用混合核函数对输入数据进行映射,得到隐层输出矩阵。
-
训练输出权重:
- 利用隐层输出矩阵和目标输出,通过最小二乘法或其他优化方法求解输出权重。
-
预测与评估:
- 将测试数据输入到训练好的模型中,进行预测。
- 对模型进行性能评估,如计算预测误差或准确率等指标。
4. 优势与挑战
优势:
- 更强的建模能力:混合核函数可以捕捉数据中的更复杂模式,提升模型的表现。
- 灵活性高:可以根据不同的数据集和任务选择不同的核函数组合。
挑战:
- 核函数选择:选择合适的核函数和权重需要一定的经验和调优。
- 计算复杂度:混合核的计算可能会增加模型的训练和预测时间,特别是在处理大规模数据时。
HKELM通过引入多种核函数的组合,试图在保留ELM优点的同时克服其在处理复杂数据时的不足。这使得HKELM在许多实际应用中表现出较强的性能。
二、实验结果
1.88个智能优化算法清单
2.程序内容和执行步骤
main_HKELM.m实现了88个优化算法对HKELM进行优化
HKELM.m实现了基本版本HKELM
两篇参考文献有详细的HKELM混合核极限学习机的原理 可以参考写
算法目录则是88个优化算法
更改红色框的“HO”修改成对应优化算法简称即可
[Bestscore, Bestpos, curve] = HO(pop, Max_iteration, lb, ub, dim, fun); %%河马优化算法
[Bestscore, Bestpos, curve] = ZOA(pop, Max_iteration, lb, ub, dim, fun); %%斑马优化算法
3.部分实验结果
河马优化算法HKELM
斑马优化算法HKELM
4.实验数据
三、核心代码
%% 添加路径
addpath('toolbox\')
%% 导入数据
res = xlsread('数据集.xlsx');
rand('state',0); %随机种子
%% 数据分析
num_size = 0.7; % 训练集占数据集比例
outdim = 1; % 最后一列为输出
num_samples = size(res, 1); % 样本个数
res = res(randperm(num_samples), :); % 打乱数据集(不希望打乱时,注释该行)
num_train_s = round(num_size * num_samples); % 训练集样本个数
f_ = size(res, 2) - outdim; % 输入特征维度
%% 划分训练集和测试集
P_train = res(1: num_train_s, 1: f_)';
T_train = res(1: num_train_s, f_ + 1: end)';
M = size(P_train, 2);
P_test = res(num_train_s + 1: end, 1: f_)';
T_test = res(num_train_s + 1: end, f_ + 1: end)';
N = size(P_test, 2);
%% 数据归一化
[p_train, ps_input] = mapminmax(P_train, 0, 1);
p_test = mapminmax('apply', P_test, ps_input);
[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);
%% 获取最优正则化系数 C 和核函数参数 S
Kernel_type1 = 'rbf'; %核函数类型1
Kernel_type2 = 'poly'; %核函数类型2
%% 优化算法参数设置
fun = @getObjValue; % 目标函数
pop=5; % 种群数
Max_iteration=20; % 最大迭代次数
ub=[5 5 5 5 0.5]; % 优化的参量分别为:正则化系数C,rbf核函数的核系数S(接下)
lb=[1 0.01 0.01 1 0.1]; % 多项式核函数的两个核系数poly1和poly2,以及核权重系数w
dim=5; % 维度
%% 优化算法 仅需修改一行即可
% AFT 阿里巴巴与四十大盗算法2021
% AHA 人工蜂鸟算法2021
% ALO 蚁狮优化算法2015
% AOA 阿基米德优化算法2020
% AROA 吸引-排斥优化算法2024
% AVOA 非洲秃鹫优化算法2021
% BKA 黑翅鸢优化算法2024
% BWOA 黑寡妇优化算法
% BOA 蝴蝶优化算法2019
% C_PSO 横向交叉PSO优化算法
% CDO 切诺贝利灾难优化算法2023
% CGO 混沌博弈优化算法2020
% ChOA 黑猩猩优化算法2020
% COA 小龙虾优化算法2023
% COOT 白骨顶鸡优化算法2021
% CPO 冠豪猪优化算法2024
% CJAYA Jaya优化算法2016
% CSA 合作优化算法2021
% DA 蜻蜓优化算法2016
% DBO 蜣螂优化算法2022
% DCS 差异创意搜索优化算法2024
% DMOA 侏儒猫鼬优化算法2022
% DOA 野狗优化算法2021
% EWOA 增强型鲸鱼优化算法
% EO 平衡优化算法2020
% EVO 能量谷优化算法2023
% FDA 法医调查优化算法2020
% FOX 狐狸有护士算法2022
% FSA 火烈鸟搜索算法2021
% GA 遗传优化算法1962
% GAO 巨型犰狳优化算法2023
% GAPSO 遗传粒子群优化算法
% GCRA 蔗鼠优化算法2024
% GEO 金鹰优化算法2020
% GJO 金豺优化算法2022
% GO_It 增长优化算法2023
% GO_FEs 增长优化算法2023
% GoldSA 黄金正弦算法2017
% GOOSE 鹅优化算法2024
% GRO 淘金优化器2023
% GTO 珍鲹优化算法2022
% GWO 灰狼优化算法2014
% HO 河马优化算法2024
% HHO 哈里斯鹰优化算法2019
% HGS 饥饿游戏搜索优化算法2020
% JS 水母搜索算法2020
% JSOA 跳蜘蛛优化算法2021
% KOA 开普勒优化算法2023
% LEA 爱情进化算法2024
% LPO 肺功能优化算法2024
% MFO 飞蛾扑火优化算法2015
% MGO 山岭羊优化算法2022
% MPA 海洋捕食者算法2020
% MVO 多元宇宙优化算法2016
% NGO 北方苍鹰优化算法2022
% NRBO 牛顿-拉夫逊优化算法2024
% O_RIME 横向交叉霜冰优化算法2023
% PO 鹦鹉优化算法2024
% POA 鹈鹕优化算法2022
% PSA PID搜索优化算法2024
% PSO 粒子群优化算法1995
% RBMO 红嘴蓝鹊优化算法2024
% RIME 霜冰优化算法2023
% RUN 龙格库塔优化算法2021
% SA 模拟退火算法1983
% SAO 雪消融优化算法2023
% SABO 减法平均优化算法2023
% SCA 正余弦优化算法2016
% SFO 旗鱼优化算法2019
% SHO 海马优化算法2022
% SMA 黏菌优化算法2020
% SO 蛇算法优化算法2022
% SS(SSA) 樽海鞘优化算法2017
% SSA 麻雀优化算法2020
% WHO 野马优化算法2021
% WOA 鲸鱼优化算法2016
% WSO 白鲨优化算法2022
% ZOA 斑马优化算法2022
%% 仅需要把优化算法的名称进行修改即可 此处是
% [Best_score, Best_pos, curve] = HO(pop, Max_iteration, lb, ub, dim, fun);
[Best_score, Best_pos, curve] = ZOA(pop, Max_iteration, lb, ub, dim, fun);
四、代码获取
私信即可
五、总结
包括但不限于
优化BP神经网络,深度神经网络DNN,极限学习机ELM,鲁棒极限学习机RELM,核极限学习机KELM,混合核极限学习机HKELM,支持向量机SVR,相关向量机RVM,最小二乘回归PLS,最小二乘支持向量机LSSVM,LightGBM,Xgboost,RBF径向基神经网络,概率神经网络PNN,GRNN,Elman,随机森林RF,卷积神经网络CNN,长短期记忆网络LSTM,BiLSTM,GRU,BiGRU,TCN,BiTCN,CNN-LSTM,TCN-LSTM,BiTCN-BiGRU,LSTM–Attention,VMD–LSTM,PCA–BP等等
用于数据的分类,时序,回归预测。
多特征输入,单输出,多输出