神经网络遗传算法函数极值寻优.docx
《神经网络遗传算法函数极值寻优.docx》由会员分享,可在线阅读,更多相关《神经网络遗传算法函数极值寻优.docx(19页珍藏版)》请在冰豆网上搜索。
神经网络遗传算法函数极值寻优
神经网络遗传算法函数极值寻优
编辑整理:
尊敬的读者朋友们:
这里是精品文档编辑中心,本文档内容是由我和我的同事精心编辑整理后发布的,发布之前我们对文中内容进行仔细校对,但是难免会有疏漏的地方,但是任然希望(神经网络遗传算法函数极值寻优)的内容能够给您的工作和学习带来便利。
同时也真诚的希望收到您的建议和反馈,这将是我们进步的源泉,前进的动力。
本文可编辑可修改,如果觉得对您有帮助请收藏以便随时查阅,最后祝您生活愉快业绩进步,以下为神经网络遗传算法函数极值寻优的全部内容。
BeijingJiaotongUniversity
智能控制技术报告
神经网络遗传算法函数极值寻优
学院:
电子信息工程学院
学号:
姓名:
指导教师:
时间:
2014。
11。
29
一、课题背景
在研究中经常会遇到一些非常复杂的非线性系统,这些系统方程复杂,难以用数学方法准确建模。
在这种情况下,可以建立BP神经网络表达这些非线性系统。
该方法把系统看成是一个黑箱,首先用系统输入输出数据训练BP神经网络,使网络能够表达该未知函数,然后就可以用训练好的BP神经网络预测系统输出.
对于未知的非线性函数,仅通过函数的输入输出数据难以准确寻找函数极值.遗传算法通过模拟自然界遗传机制和生物进化论能够进行并行随机搜索最优化,所以对非线性函数极值寻优可以通过神经网络结合遗传算法求解。
利用神经网络的非线性拟合能力和遗传算法的非线性寻优能力寻找函数极值。
本文拟合的非线性函数为:
该函数的图形如图所示:
图1—1待拟合函数图形
从函数方程和图形可以看出,该函数仅有一个全局最大值为0。
9655,对应的坐标是(0。
537,0.9655).虽然从函数方程和图形中很容易找出函数及极值对应的坐标,但是在方程未知的条件下函数极值及极值对应的坐标就很难求到。
二、模型建立
2。
1算法流程
神经网络遗传算法函数极值寻优主要分为BP神经网络训练拟合和遗传算法极值寻优两步,算法流程如图所示:
图2-1算法流程图
神经网络训练拟合根据寻优函数的特点构建适合的BP神经网络,用非线性函数的输入输出数据训练BP神经网络,训练后的神经网络就可以预测函数输出。
遗传算法极值寻优把训练后的BP神经网络预测结果作为个体适应度值,通过选择、交叉和变异操作寻找函数的全局最优值及对应的值.
2。
2BP算法实现
2.2。
1数据选择和归一化
数据归一化是神经网络训练和预测前对数据常做的一种处理方法。
数据归一化处理把所有的数据都归一化为[0,1]之间的数,其目的是取消各维数据间数量级差别,避免因为输入输出数据数量级差别较大而造成训练失败或者预测误差较大。
数据归一化可以使用MATLAB自带函数mapminmax,该函数有多种形式,常用的方法如下:
%样本输入输出数据归一化
[inputn,inputps]=mapminmax(input_train);
[outputn,outputps]=mapminmax(output_train);
input_train、output_train是训练输入、输出原始数据,inputn、outputn是归一化后的数据,inputps、outputps为数据归一化后得到的结构体,里面包含了数据的最大值、最小值和平均值等信息,可以用于测试数据归一化和反归一化。
测试数据归一化和反归一化程序一般如下:
%数据归一化
inputn_test=mapminmax('apply’,input_test,inputps);
%网络输出反归一化
BPoutput=mapminmax(’reverse’,an,outputps);
input_test是预测输入数据,input_test是归一化后的预测数据,’apply'表示根据inputps进行归一化;an是网络预测结果,outputs是训练输出数据归一化得到的结构体,BPoutput是反归一化后的网络预测输出,’reverse'表示对数据进行反归一化。
2.2。
2BP神经网络训练
用训练数据训练神经网络,使网络对非线性函数具有预测能力.MATLAB神经网络工具箱中自带BP神经网络函数,使用时只需要调用相关的子程序即可.BP神经网络训练主要用到newff、sim两个函数.
1.newff:
BP神经网络参数设置函数
函数功能:
构建一个BP网络.
函数形式:
net=newff(P,T,S,TF,BTF,BLF,PF,IPF,OPF,DDF)
2.train:
BP神经网络训练函数
函数功能:
用训练数据训练BP神经网络。
函数形式:
[net,tr]=train(NET,X,T,Pi,Ai)
2。
2.3BP神经网络预测
用训练好的BP神经网络预测非线性函数输出,并通过BP神经网络预测输出和期望输出分析BP网络的分析能力.MATLAB神经网络工具箱提供的BP神经网络预测函数是sim.
1.sim:
BP神经网络预测函数
函数功能:
用训练好的BP神经网络预测函数输出
函数形式:
y=sim(net,y)
以上三个函数的具体用法可以参考其自带的帮助,本文不作详述。
根据需要拟合的函数有1个输入参数、1个输出参数,确定BP神经网络为1—5-1。
取函数的4000组输入输出数据,从中随机选取3900组训练网络,100组数据测试网络性能,网络训练好后用于非线性函数输出。
2。
3遗传算法实现
2.3.1种群初始化
个体编码方法为实数编码,每个个体均为一个实数串,由输入层与隐含层连接权值、隐含层阈值、隐含层与输出层连接权值以及输出层阈值4部分组成。
个体包含了神经网络全部权值和阈值,在网络结构已知的情况下,就可以构成一个结构、权值、阈值确定的神经网络。
2。
3。
2适应度函数
根据个体得到的BP神经网络的初始权值和阈值,用训练数据训练BP神经网络后预测系统输出,把训练好的BP神经网络预测输出作为个体适应度的值。
2.3。
3选择操作
遗传算法选择操作有轮盘赌法、锦标赛法等多种方法,本文采用采用轮盘赌法,即基于适应度比例的选择策略,每个个体i的选择
为:
其中,
为个体i的适应度值,N为种群的个体数目。
2。
3。
4交叉操作
由于个体采用实数编码,所以交叉操作方法采用实数交叉法,d第k个染色体
和第l个染色体
在j位的交叉操作方法如下:
其中,b是[0,1]间的随机数。
2。
3.5变异操作
选取第i个个体的第j个基因
进行变异,变异操作方法如下:
式中,
为基因
的上界;
为基因
的下界;
;
为一个随机数;g为当前迭代次数;
是最大进化次数;r为[0,1]之间的随机数
三、编程实现
3.1数据准备
根据拟合函数得到4000组输入input和输出数据output,存入data中。
fori=1:
4000
input(i,:
)=3*rand;
output(i)=-input(i)*(input(i)^2-3。
2*input(i)+2.89)*(input(i)-3)/2;
end
output=output';
savedatainputoutput
3。
2BP神经网络主函数
对于4000组数据,采用其中3900组用来训练神经网络,最后100组用来测试网络拟合性能。
%%清空环境变量
clc
clear
data;
tic
%%训练数据预测数据提取及归一化
%下载输入输出数据
loaddataoutputinput
%从1到4000间随机排序
k=rand(1,4000);
[m,n]=sort(k);
%找出训练数据和预测数据
input_train=input(n(1:
3900),:
)';
output_train=output(n(1:
3900),:
)';
input_test=input(n(3901:
4000),:
)’;
output_test=output(n(3901:
4000),:
)’;
%选连样本输入输出数据归一化
[inputn,inputps]=mapminmax(input_train);
[outputn,outputps]=mapminmax(output_train);
%BP网络训练
%初始化网络结构
net=newff(inputn,outputn,5);
net.trainParam。
epochs=100;
net。
trainParam.lr=0.1;
net。
trainParam。
goal=0.0000004;
%网络训练
net=train(net,inputn,outputn);
%BP网络预测
%预测数据归一化
inputn_test=mapminmax('apply’,input_test,inputps);
%网络预测输出
an=sim(net,inputn_test);
%网络输出反归一化
BPoutput=mapminmax(’reverse',an,outputps);
%结果分析
figure
(1)
plot(BPoutput,’:
og’)
holdon
plot(output_test,’—*’);
legend('预测输出','期望输出',’fontsize’,12)
title('BP网络预测输出’,'fontsize',12)
xlabel('样本','fontsize’,12)
ylabel('输出',’fontsize’,12)
print—dtiff-r6004—3
%预测误差
error=BPoutput—output_test;
figure
(2)
plot(error,'—*')
title(’神经网络预测误差')
figure(3)
plot((output_test—BPoutput)。
/BPoutput,’—*');
title(’神经网络预测误差百分比')
errorsum=sum(abs(error))
toc
savedatanetinputpsoutputps
3。
3编码函数
functionret=Code(lenchrom,bound)
%lenchrominput:
染色体长度
%boundinput:
变量的取值范围
%retoutput:
染色体的编码值
flag=0;
whileflag==0
pick=rand(1,length(lenchrom));
%线性插值,编码结果以实数向量存入ret中
ret=bound(:
1)'+(bound(:
2)-bound(:
,1))'。
*pick;
flag=test(lenchrom,bound,ret);%检验染色体的可行性
end
3。
4适应度函数
functionfitness=fun(x)
%xinput个体
%fitnessoutput个体适应度值
loaddatanetinputpsoutputps
%数据归一化
x=x';
inputn_test=mapminmax(’apply’,x,inputps);
%网络预测输出
an=sim(net,inputn_test);
%网络输出反归一化
fitness=mapminmax(’reverse’,an,outputps);
3。
5选择操作
functionret=select(individuals,sizepop)
%individualsinput:
种群信息
%sizepopinput:
种群规模
%retoutput:
经过选择后的种群
fitness1=individuals。
fitness;
sumfitness=sum(fitness1);
sumf=fitness1。
/sumfitness;
index=[];
fori=1:
sizepop%转sizepop次轮盘
pick=rand;
whilepick==0
pick=rand;
end
fori=1:
sizepop
pick=pick-sumf(i);
ifpick<0
index=[indexi];
break;
end
end
end
individuals.chrom=individuals.chrom(index,:
);
individuals。
fitness=individuals.fitness(index);
ret=individuals;
3。
6交叉操作
functionret=Cross(pcross,lenchrom,chrom,sizepop,bound)
%pcorssinput:
交叉概率
%lenchrominput:
染色体的长度
%chrominput:
染色体群
%sizepopinput:
种群规模
%retoutput:
交叉后的染色体
fori=1:
sizepop
%随机选择两个染色体进行交叉
pick=rand(1,2);
whileprod(pick)==0
pick=rand(1,2);
end
index=ceil(pick.*sizepop);
%交叉概率决定是否进行交叉
pick=rand;
whilepick==0
pick=rand;
end
ifpick〉pcross
continue;
end
flag=0;
whileflag==0
%随机选择交叉位
pick=rand;
whilepick==0
pick=rand;
end
pos=ceil(pick。
*sum(lenchrom));
pick=rand;%交叉开始
v1=chrom(index
(1),pos);
v2=chrom(index
(2),pos);
chrom(index
(1),pos)=pick*v2+(1-pick)*v1;
chrom(index
(2),pos)=pick*v1+(1-pick)*v2;%交叉结束
flag1=test(lenchrom,bound,chrom(index
(1),:
));%检验染色体1可行性
flag2=test(lenchrom,bound,chrom(index
(2),:
));%检验染色体2可行性
ifflag1*flag2==0
flag=0;
elseflag=1;
end%如果两个染色体不是都可行,则重新交叉
end
end
ret=chrom;
3。
7变异操作
functionret=Mutation(pmutation,lenchrom,chrom,sizepop,pop,bound)
%pcorssinput:
变异概率
%lenchrominput:
染色体长度
%chrominput:
染色体群
%sizepopinput:
种群规模
%optsinput:
变异方法的选择
%popinput:
当前种群的进化代数和最大的进化代数信息
%retoutput:
变异后的染色体
fori=1:
sizepop
%随机选择一个染色体进行变异
pick=rand;
whilepick==0
pick=rand;
end
index=ceil(pick*sizepop);
%变异概率决定该轮循环是否进行变异
pick=rand;
ifpick>pmutation
continue;
end
flag=0;
whileflag==0
%变异位置
pick=rand;
whilepick==0
pick=rand;
end
pos=ceil(pick*sum(lenchrom));
v=chrom(i,pos);
v1=v—bound(pos,1);
v2=bound(pos,2)-v;
pick=rand;%变异开始
ifpick〉0.5
delta=v2*(1-pick^((1-pop
(1)/pop
(2))^2));
chrom(i,pos)=v+delta;
else
delta=v1*(1-pick^((1—pop
(1)/pop
(2))^2));
chrom(i,pos)=v—delta;
end%变异结束
flag=test(lenchrom,bound,chrom(i,:
));%检验染色体的可行性
end
end
ret=chrom;
3。
8遗传算法主函数
%清空环境变量
clc
clear
%初始化遗传算法参数
%初始化参数
maxgen=50;%进化代数,即迭代次数
sizepop=30;%种群规模
pcross=[0.4];%交叉概率选择,0和1之间
pmutation=[0.2];%变异概率选择,0和1之间
lenchrom=[1];%每个变量的字串长度,如果是浮点变量,则长度都为1
bound=[03];%数据范围
individuals=struct('fitness’,zeros(1,sizepop),'chrom’,[]);
%将种群信息定义为一个结构体
avgfitness=[];%每一代种群的平均适应度
bestfitness=[];%每一代种群的最佳适应度
bestchrom=[];%适应度最好的染色体
%初始化种群计算适应度值
%初始化种群
fori=1:
sizepop
%随机产生一个种群
individuals。
chrom(i,:
)=Code(lenchrom,bound);
x=individuals.chrom(i,:
);
%计算适应度
individuals.fitness(i)=fun(x);%染色体的适应度
end
%找最好的染色体
[bestfitnessbestindex]=max(individuals。
fitness);
bestchrom=individuals。
chrom(bestindex,:
);%最好的染色体
avgfitness=sum(individuals。
fitness)/sizepop;%染色体的平均适应度
%记录每一代进化中最好的适应度和平均适应度
trace=[avgfitnessbestfitness];
%迭代寻优
%进化开始
fori=1:
maxgen
i
%选择
individuals=Select(individuals,sizepop);
avgfitness=sum(individuals。
fitness)/sizepop;
%交叉
individuals。
chrom=Cross(pcross,lenchrom,individuals。
chrom,sizepop,bound);
%变异
individuals.chrom=Mutation(pmutation,lenchrom,individuals。
chrom,sizepop,[imaxgen],bound);
%计算适应度
forj=1:
sizepop
x=individuals。
chrom(j,:
);%解码
individuals.fitness(j)=fun(x);
end
%找到最小和最大适应度的染色体及它们在种群中的位置
[newbestfitness,newbestindex]=max(individuals。
fitness);
[worestfitness,worestindex]=min(individuals.fitness);
%代替上一次进化中最好的染色体
ifbestfitness〈newbestfitness
bestfitness=newbestfitness;
bestchrom=individuals.chrom(newbestindex,:
);
end
individuals.chrom(worestindex,:
)=bestchrom;
individuals.fitness(worestindex)=bestfitness;
avgfitness=sum(individuals。
fitness)/sizepop;
trace=[trace;avgfitnessbestfitness];
%记录每一代进化中最好的适应度和平均适应度
end
%进化结束
%结果分析
[rc]=size(trace);
plot([1:
r]',trace(:
,2),'r-’);
title('适应度曲线’,’fontsize’,12);
xlabel(’进化代数’,’fontsize’,12);ylabel(’适应度',’fontsize’,12);
axis([0,100,0,1])
disp(’XmaxFmax');
x=bestchrom;
%窗口显示
disp([xbestfitness]);
四、结果分析
4.1BP神经网络拟合结果分析
因为个体的适应度值为神经网络的预测值,因此BP神经网络预测精度对最优位置的寻找具有非常重要的意义.由于寻优非线性函数有1个输入参数和1个输出参数,所以构成BP神经网络的结构为1-5-1。
共取非线性函数4000组数据,从中选择3900组数据训练BP神经网络,100组数据作为测试数据BP神经网络拟合性能,BP神经网络预测输出和期望输出对比如图所示:
图4—1BP网络预测输出
图4—2BP网络预测误差
图4-3BP网络预测误差百分比
从BP神经网络预测结果可以看出,BP神经网络可以准确预测非线性函数输出,可以把网络预测输出近似看成函数实际输出。
4.2遗传算法寻优结果分析
BP神经网络训练结束后,可以用遗传算法寻找该非线性函数的最小值。
遗传算法的迭代次数是50次,种群规模是30,交叉概率为0。
2,采用浮点数编码,个体长度为2,优化过程中最优化个体适应度值变化曲线如图所示:
图4-4遗传算法适应度曲线
遗传算法得到的最优化个体适应度为0.5373,最优个体为0。
9652,可以发现该结果与精确值(0.537,0.9655)坐标非常接近,说明神经网络遗传算法函数极值寻优这种方法非常有效。