ImageVerifierCode 换一换
格式:DOCX , 页数:27 ,大小:30.38KB ,
资源ID:5481638      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/5481638.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(遗传算法 2精品毕业设计完整版.docx)为本站会员(b****4)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

遗传算法 2精品毕业设计完整版.docx

1、遗传算法 2精品毕业设计完整版用遗传算法优化BP神经网络的Matlab编程实例 由于BP网络的权值优化是一个无约束优化问题,而且权值要采用实数编码,所以直接利用Matlab遗传算法工具箱。以下贴出的代码是为一个19输入变量,1个输出变量情况下的非线性回归而设计的,如果要应用于其它情况,只需改动编解码函数即可。程序一:GA训练BP权值的主函数function net=GABPNET(XX,YY)%-%GABPNET.m%使用遗传算法对BP网络权值阈值进行优化,再用BP算法训练网络%-%数据归一化预处理nntwarn offXX=premnmx(XX);YY=premnmx(YY);%创建网络ne

2、t=newff(minmax(XX),19,25,1,tansig,tansig,purelin,trainlm);%下面使用遗传算法对网络进行优化P=XX;T=YY;R=size(P,1);S2=size(T,1);S1=25;%隐含层节点数S=R*S1+S1*S2+S1+S2;%遗传算法编码长度aa=ones(S,1)*-1,1;popu=50;%种群规模initPpp=initializega(popu,aa,gabpEval);%初始化种群gen=100;%遗传代数%下面调用gaot工具箱,其中目标函数定义为gabpEvalx,endPop,bPop,trace=ga(aa,gabpE

3、val,initPpp,1e-6 1 1,maxGenTerm,gen,.normGeomSelect,0.09,arithXover,2,nonUnifMutation,2 gen 3);%绘收敛曲线图figure(1)plot(trace(:,1),1./trace(:,3),r-);hold onplot(trace(:,1),1./trace(:,2),b-);xlabel(Generation);ylabel(Sum-Squared Error);figure(2)plot(trace(:,1),trace(:,3),r-);hold onplot(trace(:,1),trace(

4、:,2),b-);xlabel(Generation);ylabel(Fittness);%下面将初步得到的权值矩阵赋给尚未开始训练的BP网络W1,B1,W2,B2,P,T,A1,A2,SE,val=gadecod(x);net.LW2,1=W1;net.LW3,2=W2;net.b2,1=B1;net.b3,1=B2;XX=P;YY=T;%设置训练参数net.trainParam.show=1;net.trainParam.lr=1;net.trainParam.epochs=50;net.trainParam.goal=0.001;%训练网络net=train(net,XX,YY);程序二

5、:适应值函数function sol, val = gabpEval(sol,options)% val - the fittness of this individual% sol - the individual, returned to allow for Lamarckian evolution% options - current_generationload data2nntwarn offXX=premnmx(XX);YY=premnmx(YY);P=XX;T=YY;R=size(P,1);S2=size(T,1);S1=25;%隐含层节点数S=R*S1+S1*S2+S1+S2;

6、%遗传算法编码长度for i=1:S, x(i)=sol(i);end;W1, B1, W2, B2, P, T, A1, A2, SE, val=gadecod(x);程序三:编解码函数function W1, B1, W2, B2, P, T, A1, A2, SE, val=gadecod(x)load data2nntwarn offXX=premnmx(XX);YY=premnmx(YY);P=XX;T=YY;R=size(P,1);S2=size(T,1);S1=25;%隐含层节点数S=R*S1+S1*S2+S1+S2;%遗传算法编码长度% 前R*S1个编码为W1for i=1:S

7、1, for k=1:R, W1(i,k)=x(R*(i-1)+k); endend% 接着的S1*S2个编码(即第R*S1个后的编码)为W2for i=1:S2, for k=1:S1, W2(i,k)=x(S1*(i-1)+k+R*S1); endend% 接着的S1个编码(即第R*S1+S1*S2个后的编码)为B1for i=1:S1, B1(i,1)=x(R*S1+S1*S2)+i);end% 接着的S2个编码(即第R*S1+S1*S2+S1个后的编码)为B2for i=1:S2, B2(i,1)=x(R*S1+S1*S2+S1)+i);end% 计算S1与S2层的输出A1=tansi

8、g(W1*P,B1);A2=purelin(W2*A1,B2);% 计算误差平方和SE=sumsqr(T-A2);val=1/SE; % 遗传算法的适应值上述程序需要调用gaot工具箱,请从附件里下载!原创】蚁群算法最短路径通用Matlab程序(附图)下面的程序是蚁群算法在最短路中的应用,稍加扩展即可应用于机器人路径规划function ROUTES,PL,Tau=ACASP(G,Tau,K,M,S,E,Alpha,Beta,Rho,Q)% -% ACASP.m% 蚁群算法动态寻路算法% ChengAihua,PLA Information Engineering University,Zhe

9、ngZhou,China% Email:aihuacheng% All rights reserved% -% 输入参数列表% G 地形图为01矩阵,如果为1表示障碍物% Tau 初始信息素矩阵(认为前面的觅食活动中有残留的信息素)% K 迭代次数(指蚂蚁出动多少波)% M 蚂蚁个数(每一波蚂蚁有多少个)% S 起始点(最短路径的起始点)% E 终止点(最短路径的目的点)% Alpha 表征信息素重要程度的参数% Beta 表征启发式因子重要程度的参数% Rho 信息素蒸发系数% Q 信息素增加强度系数% 输出参数列表% ROUTES 每一代的每一只蚂蚁的爬行路线% PL 每一代的每一只蚂蚁的

10、爬行路线长度% Tau 输出动态修正过的信息素% -变量初始化-%loadD=G2D(G);N=size(D,1);%N表示问题的规模(象素个数)MM=size(G,1);a=1;%小方格象素的边长Ex=a*(mod(E,MM)-0.5);%终止点横坐标if Ex=-0.5 Ex=MM-0.5;endEy=a*(MM+0.5-ceil(E/MM);%终止点纵坐标Eta=zeros(1,N);%启发式信息,取为至目标点的直线距离的倒数%下面构造启发式信息矩阵for i=1:Nif ix=-0.5 ix=MM-0.5; end iy=a*(MM+0.5-ceil(i/MM); if i=E Eta

11、(1,i)=1/(ix-Ex)2+(iy-Ey)2)0.5; else Eta(1,i)=100; endendROUTES=cell(K,M);%用细胞结构存储每一代的每一只蚂蚁的爬行路线PL=zeros(K,M);%用矩阵存储每一代的每一只蚂蚁的爬行路线长度% -启动K轮蚂蚁觅食活动,每轮派出M只蚂蚁-for k=1:K disp(k); for m=1:M% 第一步:状态初始化 W=S;%当前节点初始化为起始点 Path=S;%爬行路线初始化 PLkm=0;%爬行路线长度初始化 TABUkm=ones(1,N);%禁忌表初始化 TABUkm(S)=0;%已经在初始点了,因此要排除 DD=

12、D;%邻接矩阵初始化% 第二步:下一步可以前往的节点 DW=DD(W,:); DW1=find(DW for j=1:length(DW1) if TABUkm(DW1(j)=0 DW(j)=inf; end end LJD=find(DW Len_LJD=length(LJD);%可选节点的个数% 觅食停止条件:蚂蚁未遇到食物或者陷入死胡同 while W=E&Len_LJD=1% 第三步:转轮赌法选择下一步怎么走 PP=zeros(1,Len_LJD); for i=1:Len_LJD PP(i)=(Tau(W,LJD(i)Alpha)*(Eta(LJD(i)Beta); end PP=P

13、P/(sum(PP);%建立概率分布 Pcum=cumsum(PP); Select=find(Pcum=rand);% 第四步:状态更新和记录 Path=Path,to_visit;%路径增加 PLkm=PLkm+DD(W,to_visit);%路径长度增加 W=to_visit;%蚂蚁移到下一个节点 for kk=1:N if TABUkm(kk)=0 DD(W,kk)=inf; DD(kk,W)=inf; end end TABUkm(W)=0;%已访问过的节点从禁忌表中删除 for j=1:length(DW1) if TABUkm(DW1(j)=0 DW(j)=inf; end en

14、d LJD=find(DW Len_LJD=length(LJD);%可选节点的个数 end% 第五步:记下每一代每一只蚂蚁的觅食路线和路线长度 ROUTESk,m=Path; if Path(end)=E PL(k,m)=PLkm; else PL(k,m)=inf; end end% 第六步:更新信息素 Delta_Tau=zeros(N,N);%更新量初始化 for m=1:M if PL(k,m) ROUT=ROUTESk,m; TS=length(ROUT)-1;%跳数 PL_km=PL(k,m); for s=1:TS x=ROUT(s); Delta_Tau(x,y)=Delta

15、_Tau(x,y)+Q/PL_km; Delta_Tau(y,x)=Delta_Tau(y,x)+Q/PL_km; end end end Tau=(1-Rho).*Tau+Delta_Tau;%信息素挥发一部分,新增加一部分end% -绘图-plotif=1;%是否绘图的控制参数if plotif=1 %绘收敛曲线 meanPL=zeros(1,K); minPL=zeros(1,K); for i=1:K PLK=PL(i,:); Nonzero=find(PLK PLKPLK=PLK(Nonzero); meanPL(i)=mean(PLKPLK); minPL(i)=min(PLKPL

16、K); end figure(1) plot(minPL); hold on plot(meanPL); grid on title(收敛曲线(平均路径长度和最小路径长度)); xlabel(迭代次数); ylabel(路径长度); %绘爬行图 figure(2) axis(0,MM,0,MM) for i=1:MM for j=1:MM if G(i,j)=1 x1=j-1;y1=MM-i; x2=j;y2=MM-i; x3=j;y3=MM-i+1; x4=j-1;y4=MM-i+1; fill(x1,x2,x3,x4,y1,y2,y3,y4,0.2,0.2,0.2); hold on el

17、se x1=j-1;y1=MM-i; x2=j;y2=MM-i; x3=j;y3=MM-i+1; x4=j-1;y4=MM-i+1; fill(x1,x2,x3,x4,y1,y2,y3,y4,1,1,1); hold on end end end hold on ROUT=ROUTESK,M; LENROUT=length(ROUT); Rx=ROUT; Ry=ROUT; for ii=1:LENROUT Rx(ii)=a*(mod(ROUT(ii),MM)-0.5); if Rx(ii)=-0.5 Rx(ii)=MM-0.5; end Ry(ii)=a*(MM+0.5-ceil(ROUT(i

18、i)/MM); end plot(Rx,Ry)endplotif2=1;%绘各代蚂蚁爬行图if plotif2=1 figure(3) axis(0,MM,0,MM) for i=1:MM for j=1:MM if G(i,j)=1 x1=j-1;y1=MM-i; x2=j;y2=MM-i; x3=j;y3=MM-i+1; x4=j-1;y4=MM-i+1; fill(x1,x2,x3,x4,y1,y2,y3,y4,0.2,0.2,0.2); hold on else x1=j-1;y1=MM-i; x2=j;y2=MM-i; x3=j;y3=MM-i+1; x4=j-1;y4=MM-i+1

19、; fill(x1,x2,x3,x4,y1,y2,y3,y4,1,1,1); hold on end end end for k=1:K PLK=PL(k,:); minPLK=min(PLK); pos=find(PLK=minPLK); m=pos(1); ROUT=ROUTESk,m; LENROUT=length(ROUT); Rx=ROUT; Ry=ROUT; for ii=1:LENROUT Rx(ii)=a*(mod(ROUT(ii),MM)-0.5); if Rx(ii)=-0.5 Rx(ii)=MM-0.5; end Ry(ii)=a*(MM+0.5-ceil(ROUT(ii

20、)/MM); end plot(Rx,Ry) hold on endend将上述算法应用于机器人路径规划,优化效果如下图所示原创】支持向量机和BP神经网络非线性回归之比较研究 支持向量机和BP神经网络虽然都可以用来做非线性回归,但它们所基于的理论基础不同,回归的机理也不相同。支持向量机基于结构风险最小化理论,普遍认为其泛化能力要比神经网络的强。为了验证这种观点,本文编写了支持向量机非线性回归的通用Matlab程序和基于神经网络工具箱的BP神经网络仿真模块,仿真结果证实,支持向量机做非线性回归不仅泛化能力强于BP网络,而且能避免神经网络的固有缺陷训练结果不稳定。 我们编写的支持向量机非线性回归通

21、用Matlab程序的主体部分如下(声明:此程序可当作工具箱使用,程序中的一些关键行被删掉了,一般人是难以将其补充完整的。此程序定价200元一份,请勿再还价,如果有意购买,请与我们联系,Email:greensim)function Alpha1,Alpha2,Alpha,Flag,B=SVMNR(X,Y,Epsilon,C,TKF)% SVMNR.m% Support Vector Machine for Nonlinear Regression% ChengAihua,PLA Information Engineering University,ZhengZhou,China% Email:

22、aihuacheng% All rights reserved% 支持向量机非线性回归通用程序% 程序功能:% 使用支持向量机进行非线性回归,得到非线性函数y=f(x1,x2,xn)的支持向量解析式,% 求解二次规划时调用了优化工具箱的quadprog函数。本函数在程序入口处对数据进行了% -1,1的归一化处理,所以计算得到的回归解析式的系数是针对归一化数据的,仿真测% 试需使用与本函数配套的Regression函数。% 主要参考文献:% 朱国强,刘士荣等.支持向量机及其在函数逼近中的应用.华东理工大学学报% 输入参数列表% X 输入样本原始数据,nl的矩阵,n为变量个数,l为样本个数% Y

23、输出样本原始数据,1l的矩阵,l为样本个数% Epsilon 不敏感损失函数的参数,Epsilon越大,支持向量越少% C 惩罚系数,C过大或过小,泛化能力变差% TKF Type of Kernel Function 核函数类型% TKF=1 线性核函数,注意:使用线性核函数,将进行支持向量机的线性回归% TKF=2 多项式核函数% TKF=3 径向基核函数% TKF=4 指数核函数% TKF=5 Sigmoid核函数% TKF=任意其它值,自定义核函数% 输出参数列表% Alpha1 系数% Alpha2 *系数% Alpha 支持向量的加权系数(*)向量% Flag 1l标记,0对应非支持向量,1对应边界支持向量,2对

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1