编程语言
首页 > 编程语言> > 基于麻雀算法优化的核极限学习机(KELM)回归预测 -附代码

基于麻雀算法优化的核极限学习机(KELM)回归预测 -附代码

作者:互联网

基于麻雀算法优化的核极限学习机(KELM)回归预测

文章目录


摘要:本文利用麻雀搜索算法对核极限学习机(KELM)进行优化,并用于回归预测.

1.KELM理论基础

核极限学习机(Kernel Based Extreme Learning Machine,KELM)是基于极限学习机(Extreme Learning Machine,ELM)并结合核函数所提出的改进算法,KELM 能够在保留 ELM 优点的基础上提高模型的预测性能。

ELM 是一种单隐含层前馈神经网络,其学习目标函数F(x) 可用矩阵表示为:
F ( x ) = h ( x ) × β = H × β = L (9) F(x)=h(x)\times \beta=H\times\beta=L \tag{9} F(x)=h(x)×β=H×β=L(9)
式中: x x x 为输入向量, h ( x ) h(x) h(x)、 H H H 为隐层节点输出, β β β 为输出权重, L L L 为期望输出。

将网络训练变为线性系统求解的问题, β \beta β根据 β = H ∗ ⋅ L β=H * ·L β=H∗⋅L 确定,其中, H ∗ H^* H∗ 为 H H H 的广义逆矩阵。为增强神经网络的稳定性,引入正则化系数 C C C 和单位矩阵 I I I,则输出权值的最小二乘解为
β = H T ( H H T + I c ) − 1 L (10) \beta = H^T(HH^T+\frac{I}{c})^{-1}L\tag{10} β=HT(HHT+cI​)−1L(10)
引入核函数到 ELM 中,核矩阵为:
Ω E L M = H H T = h ( x i ) h ( x j ) = K ( x i , x j ) (11) \Omega_{ELM}=HH^T=h(x_i)h(x_j)=K(x_i,x_j)\tag{11} ΩELM​=HHT=h(xi​)h(xj​)=K(xi​,xj​)(11)
式中: x i x_i xi​ , x j x_j xj​ 为试验输入向量,则可将式(9)表达为:
F ( x ) = [ K ( x , x 1 ) ; . . . ; K ( x , x n ) ] ( I C + Ω E L M ) − 1 L (12) F(x)=[K(x,x_1);...;K(x,x_n)](\frac{I}{C}+\Omega_{ELM})^{-1}L \tag{12} F(x)=[K(x,x1​);...;K(x,xn​)](CI​+ΩELM​)−1L(12)
式中: ( x 1 , x 2 , … , x n ) (x_1 , x_2 , …, x_n ) (x1​,x2​,…,xn​) 为给定训练样本, n n n 为样本数量. K ( ) K() K()为核函数。

正则化系数 C 和核函数参数 S 需要人为设定,两者的设定将对 KELM的预测性能具有一定影响。

2.回归问题数据处理

采用随机法产生训练集和测试集,其中训练集包含 1 900 个样 本,测试集包含 100 个样本。为了减少变量差异较大对模型性能的影响,在建立模型之前先对数据进行归一化。选取核函数为rbf 高斯核函数,利用麻雀算法对正则化系数 C 和核函数参数 S 选取进行优化。

4.基于麻雀搜索算法优化的KELM

麻雀搜索算法的具体原理参考博客:https://blog.csdn.net/u011835903/article/details/108830958。

由前文可知,本文利用麻雀搜索算法对正则化系数 C 和核函数参数 S 进行优化。适应度函数设计为训练集的误差的MSE:
f i t n e s s = a r g m i n ( M S E p r i d e c t ) fitness = argmin(MSE_{pridect}) fitness=argmin(MSEpridect​)

适应度函数选取训练后的MSE误差。MSE误差越小表明预测的数据与原始数据重合度越高。最终优化的输出为最佳正则化系数 C 和核函数参数 S。然后利用最佳正则化系数 C 和核函数参数 S训练后的网络对测试数据集进行测试。

5.测试结果

训练集结果如下图所示
在这里插入图片描述
在这里插入图片描述

测试集结果如下图所示:
在这里插入图片描述
在这里插入图片描述

麻雀收敛曲线:
在这里插入图片描述
训练集KELM 的MSE:0.0050992
训练集KELM 的MSE:0.42449
测试集SSA-KELM 的MSE:0.032512
测试集KELM 的MSE:0.80655

可以看出无论是在测试集和训练集上麻雀优化的KELM结果均更优。

6.Matlab代码

基于麻雀算法优化的核极限学习机(KELM)回归预测

标签:ELM,KELM,学习机,算法,麻雀,MSE,优化
来源: https://blog.csdn.net/u011835903/article/details/116849032