m基于GA遗传优化的BP神经网络时间序列预测算法matlab仿真

1.算法描述

将遗传算法(GA)与BP神经网络相结合,使用GA优化BP神经网络的主要参数。然后将影响输出响应值的多个特征因素作为GA-BP神经网络模型的输入神经元, 输出响应值作为输出神经元进行预测测试。BP神经网络的网络层包括输入层,隐含层和输出层三个网络层次,其基本结构如下图所示:


基于三层网络结构的BP神经网络具有较为广泛的应用场合和训练效果。


在BP神经网络中,隐含层数量对神经网络的性能有着至关重要的影响,如果隐含层数量过多,会大大增加BP神经网络的内部结构的复杂度,从而降低学习效率,增加训练时间;如果隐含层数量过少,则无法精确获得训练输入数据和输出结果之间的内在规律,增加预测误差。因此,选择合适的隐含层个数具有十分重要的意义。由于隐含层个数的设置没有明确的理论可以计算,通常情况下,采用逐次分析的方法获得,即通过对不同隐含层所对应的神经网络进行预测误差的仿真分析,选择误差最小情况下所对应的隐含层个数。


学习率,即网络权值得更新速度,当学习率较大的时候,网络权值的更新速度快,当网络稳定性会下降;当学习率较小的时候,网络权值的更新速度慢,网络较为稳定。这里选择BP神经网络的学习率方式参考上一章节隐含层的选择方式,即通过对比不同学习率的网络训练误差,选择性能较优的学习率。


BP神经网络的初始网络权值对网络训练的效率以及预测性能有着较大的影响,通常情况下,采用随机生成[-1,1]之间的随机数作为BP神经网络的初始权值。


本文,通过matlab的BP神经网络工具箱函数newff来构建BP神经网络,通过newff函数构建BP网络,其主要步骤如下:


第一,BP神经网络初始化后,其matlab程序如下:


net = newff(traindata, trainaim, HiddenNum);


其中traindata表示训练数据,trainaim表示训练目标,HiddenNum表示BP神经网络隐含层个数,net表示BP神经网络模型函数。


第二,BP神经网络参数设置,其matlab程序所示:


设置学习率,其matlab程序为 net.trainParam.lr = 0.25;


设置训练误差目标,其matlab程序为net.trainParam.goal = 1e-8;


设置神经网络训练次数,其matlab程序为net.trainParam.epochs = 200;


第三,BP神经网络的训练,其matlab程序所示:


net = train(net,train_data,train_aim);


这里通过train函数对神经网络net进行训练,得到训练后的BP神经网络模型。


其算法流程图如图2所示:


从图2的算法流程图可知,基于自适应遗传优化的BP神经网络模型其主要通过交叉概率与变异概率的自适应调节,使个体对网络权值进行不断的更新,从而提高BP神经网络的预测精度。通过MATLAB对BP神经网络,基于遗传优化的BP神经网络,基于改进遗传优化的BP神经网络以及基于改进遗传优化的组合BP神经网络等多种算法的股价预测性能。从仿真结果可知,基于改进遗传优化的组合BP神经网络性能略优于改进遗传优化的BP神经网络,而比起传统的BP神经网络预测算法和基于传统遗传优化的BP神经网络预测算法,具有较大的性能优势。


2.仿真效果预览

matlab2022a仿真结果如下:


3.MATLAB核心程序

C    = OHLC(:,4);

Mins = min(C);

Maxs = max(C);

C    = (C-Mins)/(Maxs-Mins);

LEN = 10;

%样本的划分

for i = 1:length(C)-LEN

Price1(:,i) = C(i:i+LEN-1);

Price2(i)   = C(i+LEN);

end


%训练样本

L1 = floor(0.6*length(Price2));

for i = 1:L1

train_data(:,i) = Price1(:,i);

train_aim(i)    = Price2(i);

end


%测试样本

L2 = length(Price2) - L1;

for i = 1:L2

test_data(:,i) = Price1(:,i+L1);

test_aim(i)    = Price2(i+L1);

end


%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

%如下的是改进BP网络算法

%定义神经网络的各个层的个数

Num_In     = LEN;

Num_Hidden = 5;

Num_Out    = 1;

%构建BP网络

net        = newff(train_data,train_aim,Num_Hidden);


ERR1 = [];

ERR2 = [];

ERR3 = [];



%通过改进遗传算法优化BP参数

net        = func_newGA2(net,Num_In,Num_Hidden,Num_Out,train_data,train_aim);

%网络训练

net.trainParam.showWindow = 0;

net        = train(net,train_data,train_aim);

outputs    = sim(net,test_data);

d1         = test_aim*(Maxs-Mins) + Mins;

d2         = outputs*(Maxs-Mins) + Mins;


ERR1   = [ERR1,mean(abs(d1-d2)./d2) ];

ERR2   = [ERR2,mean((abs(d1-d2)./d2).^2) ];

ERR3   = [ERR3,std((abs(d1-d2)./d2).^2) ];

02_034m

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容