ImageVerifierCode 换一换
格式:DOC , 页数:7 ,大小:158.33KB ,
资源ID:265754      下载积分:15 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/265754.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(BP神经网络matlab实例(简单而经典).doc)为本站会员(b****1)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

BP神经网络matlab实例(简单而经典).doc

1、学习神经网络的好助手,可以仿照其中的代码,只需修改个别参数便可以轻易实现自己需要完成的任务。p=p1;t=t1; pn,minp,maxp,tn,mint,maxt=premnmx(p,t); %原始数据归一化net=newff(minmax(pn),5,1,tansig,purelin,traingdx); %设置网络,建立相应的BP网络net.trainParam.show=2000; % 训练网络net.trainParam.lr=0.01;net.trainParam.epochs=100000;net.trainParam.goal=1e-5;net,tr=train(net ,pn

2、,tn); %调用TRAINGDM算法训练BP网络pnew=pnew1; pnewn=tramnmx(pnew,minp,maxp);anewn=sim(net,pnewn); %对BP网络进行仿真anew=postmnmx(anewn,mint,maxt); %还原数据y=anew;1、BP网络构建(1)生成BP网络:由维的输入样本最小最大值构成的维矩阵。:各层的神经元个数。:各层的神经元传递函数。:训练用函数的名称。(2)网络训练(3)网络仿真tansig,purelin,trainrpBP网络的训练函数 训练方法训练函数梯度下降法traingd有动量的梯度下降法traingdm自适应lr

3、梯度下降法traingda自适应lr动量梯度下降法traingdx弹性梯度下降法trainrpFletcher-Reeves共轭梯度法traincgfPloak-Ribiere共轭梯度法traincgpPowell-Beale共轭梯度法traincgb量化共轭梯度法trainscg拟牛顿算法trainbfg一步正割算法trainossLevenberg-MarquardttrainlmBP网络训练参数训练参数参数介绍训练函数net.trainParam.epochs最大训练次数(缺省为10)traingd、traingdm、traingda、traingdx、trainrp、traincgf、

4、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlmnet.trainParam.goal训练要求精度(缺省为0)traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlmnet.trainParam.lr学习率(缺省为0.01)traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、train

5、bfg、trainoss、trainlmnet.trainParam.max_fail最大失败次数(缺省为5)traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlmnet.trainParam.min_grad最小梯度要求(缺省为1e-10)traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、train

6、lmnet.trainParam.show显示训练迭代过程(NaN表示不显示,缺省为25)traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlmnet.trainParam.time最大训练时间(缺省为inf)traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlmnet.trainParam

7、.mc动量因子(缺省0.9)traingdm、traingdxnet.trainParam.lr_inc学习率lr增长比(缺省为1.05)traingda、traingdxnet.trainParam.lr_dec学习率lr下降比(缺省为0.7)traingda、traingdxnet.trainParam.max_perf_inc表现函数增加最大比(缺省为1.04)traingda、traingdxnet.trainParam.delt_inc权值变化增加量(缺省为1.2)trainrpnet.trainParam.delt_dec权值变化减小量(缺省为0.5)trainrpnet.trai

8、nParam.delt0初始权值变化(缺省为0.07)trainrpnet.trainParam.deltamax权值变化最大值(缺省为50.0)trainrpnet.trainParam.searchFcn一维线性搜索方法(缺省为srchcha)traincgf、traincgp、traincgb、trainbfg、trainossnet.trainParam.sigma因为二次求导对权值调整的影响参数(缺省值5.0e-5)trainscgnet.trainParam.lambdaHessian矩阵不确定性调节参数(缺省为5.0e-7)trainscgnet.trainParam.men_r

9、educ控制计算机内存/速度的参量,内存较大设为1,否则设为2(缺省为1)trainlmnet.trainParam.mu的初始值(缺省为0.001)trainlmnet.trainParam.mu_dec的减小率(缺省为0.1)trainlmnet.trainParam.mu_inc的增长率(缺省为10)trainlmnet.trainParam.mu_max的最大值(缺省为1e10)trainlm2、BP网络举例举例1、%traingdclear;clc;P=-1 -1 2 2 4;0 5 0 5 7;T=-1 -1 1 1 -1;%利用minmax函数求输入样本范围net = newff

10、(minmax(P),T,5,1,tansig,purelin,trainrp);net.trainParam.show=50;%net.trainParam.lr=0.05;net.trainParam.epochs=300;net.trainParam.goal=1e-5;net,tr=train(net,P,T);net.iw1,1%隐层权值net.b1%隐层阈值net.lw2,1%输出层权值net.b2%输出层阈值sim(net,P)举例2、利用三层BP神经网络来完成非线性函数的逼近任务,其中隐层神经元个数为五个。样本数据:输入X输出D输入X输出D输入X输出D-1.0000-0.960

11、2-0.30000.13360.40000.3072-0.9000-0.5770-0.2000-0.20130.50000.3960-0.8000-0.0729-0.1000-0.43440.60000.3449-0.70000.37710-0.50000.70000.1816-0.60000.64050.1000-0.39300.8000-0.3120-0.50000.66000.2000-0.16470.9000-0.2189-0.40000.46090.3000-0.09881.0000-0.3201解:看到期望输出的范围是,所以利用双极性Sigmoid函数作为转移函数。程序如下:cle

12、ar;clc;X=-1:0.1:1;D=-0.9602 -0.5770 -0.0729 0.3771 0.6405 0.6600 0.4609. 0.1336 -0.2013 -0.4344 -0.5000 -0.3930 -0.1647 -.0988. 0.3072 0.3960 0.3449 0.1816 -0.312 -0.2189 -0.3201;figure;plot(X,D,*); %绘制原始数据分布图(附录:1-1)net = newff(-1 1,5 1,tansig,tansig);net.trainParam.epochs = 1000; %训练的最大次数net.train

13、Param.goal = 0.005; %全局最小误差net = train(net,X,D); O = sim(net,X); figure; plot(X,D,*,X,O); %绘制训练后得到的结果和误差曲线(附录:1-2、1-3)V = net.iw1,1;%输入层到中间层权值theta1 = net.b1;%中间层各神经元阈值W = net.lw2,1;%中间层到输出层权值theta2 = net.b2;%输出层各神经元阈值所得结果如下:输入层到中间层的权值: 中间层各神经元的阈值: 中间层到输出层的权值: 输出层各神经元的阈值:举例3、利用三层BP神经网络来完成非线性函数的逼近任务,

14、其中隐层神经元个数为五个。样本数据:输入X输出D输入X输出D输入X输出D00448211539322621043371解:看到期望输出的范围超出,所以输出层神经元利用线性函数作为转移函数。程序如下:clear; clc;X = 0 1 2 3 4 5 6 7 8 9 10;D = 0 1 2 3 4 3 2 1 2 3 4;figure;plot(X,D,*); %绘制原始数据分布图net = newff(0 10,5 1,tansig,purelin)net.trainParam.epochs = 100;net.trainParam.goal=0.005;net=train(net,X,D);O=sim(net,X);

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1