神经网络遗传算法函数极值寻优Word文档格式.docx
《神经网络遗传算法函数极值寻优Word文档格式.docx》由会员分享,可在线阅读,更多相关《神经网络遗传算法函数极值寻优Word文档格式.docx(19页珍藏版)》请在冰豆网上搜索。
[inputn,inputps]=mapminmax(input_train);
[outputn,outputps]=mapminmax(output_train);
input_train、output_train是训练输入、输出原始数据,inputn、outputn是归一化后的数据,inputps、outputps为数据归一化后得到的结构体,里面包含了数据的最大值、最小值和平均值等信息,可以用于测试数据归一化和反归一化。
测试数据归一化和反归一化程序一般如下:
%数据归一化
inputn_test=mapminmax('
apply’,input_test,inputps);
%网络输出反归一化
BPoutput=mapminmax(’reverse’,an,outputps);
input_test是预测输入数据,input_test是归一化后的预测数据,’apply'
表示根据inputps进行归一化;
an是网络预测结果,outputs是训练输出数据归一化得到的结构体,BPoutput是反归一化后的网络预测输出,’reverse'
表示对数据进行反归一化。
2BP神经网络训练
用训练数据训练神经网络,使网络对非线性函数具有预测能力.MATLAB神经网络工具箱中自带BP神经网络函数,使用时只需要调用相关的子程序即可.BP神经网络训练主要用到newff、sim两个函数.
1.newff:
BP神经网络参数设置函数
函数功能:
构建一个BP网络.
函数形式:
net=newff(P,T,S,TF,BTF,BLF,PF,IPF,OPF,DDF)
2.train:
BP神经网络训练函数
用训练数据训练BP神经网络。
函数形式:
[net,tr]=train(NET,X,T,Pi,Ai)
2.3BP神经网络预测
用训练好的BP神经网络预测非线性函数输出,并通过BP神经网络预测输出和期望输出分析BP网络的分析能力.MATLAB神经网络工具箱提供的BP神经网络预测函数是sim.
1.sim:
BP神经网络预测函数
用训练好的BP神经网络预测函数输出
y=sim(net,y)
以上三个函数的具体用法可以参考其自带的帮助,本文不作详述。
根据需要拟合的函数有1个输入参数、1个输出参数,确定BP神经网络为1—5-1。
取函数的4000组输入输出数据,从中随机选取3900组训练网络,100组数据测试网络性能,网络训练好后用于非线性函数输出。
3遗传算法实现
2.3.1种群初始化
个体编码方法为实数编码,每个个体均为一个实数串,由输入层与隐含层连接权值、隐含层阈值、隐含层与输出层连接权值以及输出层阈值4部分组成。
个体包含了神经网络全部权值和阈值,在网络结构已知的情况下,就可以构成一个结构、权值、阈值确定的神经网络。
3。
2适应度函数
根据个体得到的BP神经网络的初始权值和阈值,用训练数据训练BP神经网络后预测系统输出,把训练好的BP神经网络预测输出作为个体适应度的值。
2.3。
3选择操作
遗传算法选择操作有轮盘赌法、锦标赛法等多种方法,本文采用采用轮盘赌法,即基于适应度比例的选择策略,每个个体i的选择
为:
其中,
为个体i的适应度值,N为种群的个体数目。
4交叉操作
由于个体采用实数编码,所以交叉操作方法采用实数交叉法,d第k个染色体
和第l个染色体
在j位的交叉操作方法如下:
其中,b是[0,1]间的随机数。
3.5变异操作
选取第i个个体的第j个基因
进行变异,变异操作方法如下:
式中,
为基因
的上界;
的下界;
;
为一个随机数;
g为当前迭代次数;
是最大进化次数;
r为[0,1]之间的随机数
三、编程实现
3.1数据准备
根据拟合函数得到4000组输入input和输出数据output,存入data中。
fori=1:
4000
input(i,:
)=3*rand;
output(i)=-input(i)*(input(i)^2-3。
2*input(i)+2.89)*(input(i)-3)/2;
end
output=output'
;
savedatainputoutput
2BP神经网络主函数
对于4000组数据,采用其中3900组用来训练神经网络,最后100组用来测试网络拟合性能。
%%清空环境变量
clc
clear
data;
tic
%%训练数据预测数据提取及归一化
%下载输入输出数据
loaddataoutputinput
%从1到4000间随机排序
k=rand(1,4000);
[m,n]=sort(k);
%找出训练数据和预测数据
input_train=input(n(1:
3900),:
)'
output_train=output(n(1:
3900),:
input_test=input(n(3901:
4000),:
)’;
output_test=output(n(3901:
4000),:
%选连样本输入输出数据归一化
[inputn,inputps]=mapminmax(input_train);
[outputn,outputps]=mapminmax(output_train);
%BP网络训练
%初始化网络结构
net=newff(inputn,outputn,5);
net.trainParam。
epochs=100;
net。
trainParam.lr=0.1;
trainParam。
goal=0.0000004;
%网络训练
net=train(net,inputn,outputn);
%BP网络预测
%预测数据归一化
apply’,input_test,inputps);
%网络预测输出
an=sim(net,inputn_test);
BPoutput=mapminmax(’reverse'
,an,outputps);
%结果分析
figure
(1)
plot(BPoutput,’:
og’)
holdon
plot(output_test,’—*’);
legend('
预测输出'
,'
期望输出'
,’fontsize’,12)
title('
BP网络预测输出’,'
fontsize'
,12)
xlabel('
样本'
fontsize’,12)
ylabel('
输出'
print—dtiff-r6004—3
%预测误差
error=BPoutput—output_test;
figure
(2)
plot(error,'
—*'
)
title(’神经网络预测误差'
figure(3)
plot((output_test—BPoutput)。
/BPoutput,’—*'
);
title(’神经网络预测误差百分比'
errorsum=sum(abs(error))
toc
savedatanetinputpsoutputps
3编码函数
functionret=Code(lenchrom,bound)
%lenchrominput:
染色体长度
%boundinput:
变量的取值范围
%retoutput:
染色体的编码值
flag=0;
whileflag==0
pick=rand(1,length(lenchrom));
%线性插值,编码结果以实数向量存入ret中
ret=bound(:
1)'
+(bound(:
2)-bound(:
,1))'
。
*pick;
flag=test(lenchrom,bound,ret);
%检验染色体的可行性
4适应度函数
functionfitness=fun(x)
%xinput个体
%fitnessoutput个体适应度值
loaddatanetinputpsoutputps
x=x'
inputn_test=mapminmax(’apply’,x,inputps);
an=sim(net,inputn_test);
fitness=mapminmax(’reverse’,an,outputps);
5选择操作
functionret=select(individuals,sizepop)
%individualsinput:
种群信息
%sizepopinput:
种群规模
%retoutput:
经过选择后的种群
fitness1=individuals。
fitness;
sumfitness=sum(fitness1);
sumf=fitness1。
/sumfitness;
index=[];
fori=1:
sizepop%转sizepop次轮盘
pick=rand;
whilepick==0
end
fori=1:
sizepop
pick=pick-sumf(i);
ifpick<
0
index=[indexi];
break;
individuals.chrom=individuals.chrom(index,:
individuals。
fitness=individuals.fitness(index);
ret=individuals;
6交叉操作
functionret=Cross(pcross,lenchrom,chrom,sizepop,bound)
%pcorssinput:
交叉概率
%lenchrominput:
染色体的长度
%chrominput:
染色体群
%retoutput:
交叉后的染色体
%随机选择两个染色体进行交叉
pick=rand(1,2);
whileprod(pick)==0
pick=rand(1,2);
index=ceil(pick.*sizepop);
%交叉概率决定是否进行交叉
pick=rand;
whilepick==0
ifpick〉pcross
continue;
flag=0;
whileflag==0
%随机选择交叉位
pos=ceil(pick。
*sum(lenchrom));
%交叉开始
v1=chrom(index
(1),pos);
v2=chrom(index
(2),pos);
chrom(index
(1),pos)=pick*v2+(1-pick)*v1;
chrom(index
(2),pos)=pick*v1+(1-pick)*v2;
%交叉结束
flag1=test(lenchrom,bound,chrom(index
(1),:
));
%检验染色体1可行性
flag2=test(lenchrom,bound,chrom(index
(2),:
));
%检验染色体2可行性
ifflag1*flag2==0
elseflag=1;
end%如果两个染色体不是都可行,则重新交叉
ret=chrom;
7变异操作
functionret=Mutation(pmutation,lenchrom,chrom,sizepop,pop,bound)
%pcorssinput:
变异概率
%chrominput:
%sizepopinput:
%optsinput:
变异方法的选择
%popinput:
当前种群的进化代数和最大的进化代数信息
变异后的染色体
%随机选择一个染色体进行变异
index=ceil(pick*sizepop);
%变异概率决定该轮循环是否进行变异
ifpick>
pmutation
continue;
flag=0;
%变异位置
pos=ceil(pick*sum(lenchrom));
v=chrom(i,pos);
v1=v—bound(pos,1);
v2=bound(pos,2)-v;
%变异开始
ifpick〉0.5
delta=v2*(1-pick^((1-pop
(1)/pop
(2))^2));
chrom(i,pos)=v+delta;
else
delta=v1*(1-pick^((1—pop
(1)/pop
(2))^2));
chrom(i,pos)=v—delta;
end%变异结束
flag=test(lenchrom,bound,chrom(i,:
%检验染色体的可行性
8遗传算法主函数
%清空环境变量
%初始化遗传算法参数
%初始化参数
maxgen=50;
%进化代数,即迭代次数
sizepop=30;
%种群规模
pcross=[0.4];
%交叉概率选择,0和1之间
pmutation=[0.2];
%变异概率选择,0和1之间
lenchrom=[1];
%每个变量的字串长度,如果是浮点变量,则长度都为1
bound=[03];
%数据范围
individuals=struct('
fitness’,zeros(1,sizepop),'
chrom’,[]);
%将种群信息定义为一个结构体
avgfitness=[];
%每一代种群的平均适应度
bestfitness=[];
%每一代种群的最佳适应度
bestchrom=[];
%适应度最好的染色体
%初始化种群计算适应度值
%初始化种群
sizepop
%随机产生一个种群
individuals。
chrom(i,:
)=Code(lenchrom,bound);
x=individuals.chrom(i,:
);
%计算适应度
individuals.fitness(i)=fun(x);
%染色体的适应度
%找最好的染色体
[bestfitnessbestindex]=max(individuals。
fitness);
bestchrom=individuals。
chrom(bestindex,:
%最好的染色体
avgfitness=sum(individuals。
fitness)/sizepop;
%染色体的平均适应度
%记录每一代进化中最好的适应度和平均适应度
trace=[avgfitnessbestfitness];
%迭代寻优
%进化开始
maxgen
i
%选择
individuals=Select(individuals,sizepop);
avgfitness=sum(individuals。
fitness)/sizepop;
%交叉
chrom=Cross(pcross,lenchrom,individuals。
chrom,sizepop,bound);
%变异
individuals.chrom=Mutation(pmutation,lenchrom,individuals。
chrom,sizepop,[imaxgen],bound);
forj=1:
x=individuals。
chrom(j,:
%解码
individuals.fitness(j)=fun(x);
%找到最小和最大适应度的染色体及它们在种群中的位置
[newbestfitness,newbestindex]=max(individuals。
fitness);
[worestfitness,worestindex]=min(individuals.fitness);
%代替上一次进化中最好的染色体
ifbestfitness〈newbestfitness
bestfitness=newbestfitness;
bestchrom=individuals.chrom(newbestindex,:
individuals.chrom(worestindex,:
)=bestchrom;
individuals.fitness(worestindex)=bestfitness;
trace=[trace;
avgfitnessbestfitness];
%记录每一代进化中最好的适应度和平均适应度
%进化结束
[rc]=size(trace);
plot([1:
r]'
trace(:
,2),'
r-’);
适应度曲线’,’fontsize’,12);
xlabel(’进化代数’,’fontsize’,12);
ylabel(’适应度'
,’fontsize’,12);
axis([0,100,0,1])
disp(’XmaxFmax'
x=bestchrom;
%窗口显示
disp([xbestfitness]);
四、结果分析
4.1BP神经网络拟合结果分析
因为个体的适应度值为神经网络的预测值,因此BP神经网络预测精度对最优位置的寻找具有非常重要的意义.由于寻优非线性函数有1个输入参数和1个输出参数,所以构成BP神经网络的结构为1-5-1。
共取非线性函数4000组数据,从中选择3900组数据训练BP神经网络,100组数据作为测试数据BP神经网络拟合性能,BP神经网络预测输出和期望输出对比如图所示:
图4—1BP网络预测输出
图4—2BP网络预测误差
图4-3BP网络预测误差百分比
从BP神经网络预测结果可以看出,BP神经网络可以准确预测非线性函数输出,可以把网络预测输出近似看成函数实际输出。
4.2遗传算法寻优结果分析
BP神经网络训练结束后,可以用遗传算法寻找该非线性函数的最小值。
遗传算法的迭代次数是50次,种群规模是30,交叉概率为0。
2,采用浮点数编码,个体长度为2,优化过程中最优化个体适应度值变化曲线如图所示:
图4-4遗传算法适应度曲线
遗传算法得到的最优化个体适应度为0.5373,最优个体为0。
9652,可以发现该结果与精确值(0.537,0.9655)坐标非常接近,说明神经网络遗传算法函数极值寻优这种方法非常有效。