1、pnewn=tramnmx(pnew,minp,maxp);anewn=sim(net,pnewn); %对BP网络进行仿真anew=postmnmx(anewn,mint,maxt); %还原数据y=anew1、BP网络构建(1)生成BP网络:由维的输入样本最小最大值构成的维矩阵。各层的神经元个数。各层的神经元传递函数。训练用函数的名称。(2)网络训练(3)网络仿真trainrpBP网络的训练函数 训练方法训练函数梯度下降法traingd有动量的梯度下降法traingdm自适应lr梯度下降法traingda自适应lr动量梯度下降法traingdx弹性梯度下降法trainrpFletcher-
2、Reeves共轭梯度法traincgfPloak-Ribiere共轭梯度法traincgpPowell-Beale共轭梯度法traincgb量化共轭梯度法trainscg拟牛顿算法trainbfg一步正割算法trainossLevenberg-MarquardttrainlmBP网络训练参数训练参数参数介绍net.trainParam.epochs最大训练次数(缺省为10)traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlmnet.trai
3、nParam.goal训练要求精度(缺省为0)net.trainParam.lr学习率(缺省为0.01)net.trainParam.max_fail最大失败次数(缺省为5)net.trainParam.min_grad最小梯度要求(缺省为1e-10)net.trainParam.show显示训练迭代过程(NaN表示不显示,缺省为25)net.trainParam.time最大训练时间(缺省为inf)net.trainParam.mc动量因子(缺省0.9)traingdm、traingdxnet.trainParam.lr_inc学习率lr增长比(缺省为1.05)traingda、traing
4、dxnet.trainParam.lr_dec学习率lr下降比(缺省为0.7)net.trainParam.max_perf_inc表现函数增加最大比(缺省为1.04)net.trainParam.delt_inc权值变化增加量(缺省为1.2)net.trainParam.delt_dec权值变化减小量(缺省为0.5)net.trainParam.delt0初始权值变化(缺省为0.07)net.trainParam.deltamax权值变化最大值(缺省为50.0)net.trainParam.searchFcn一维线性搜索方法(缺省为srchcha)traincgf、traincgp、trai
5、ncgb、trainbfg、trainossnet.trainParam.sigma因为二次求导对权值调整的影响参数(缺省值5.0e-5)net.trainParam.lambdaHessian矩阵不确定性调节参数(缺省为5.0e-7)net.trainParam.men_reduc控制计算机内存/速度的参量,内存较大设为1,否则设为2(缺省为1)net.trainParam.mu的初始值(缺省为0.001)net.trainParam.mu_dec的减小率(缺省为0.1)net.trainParam.mu_inc的增长率(缺省为10)net.trainParam.mu_max的最大值(缺省为
6、1e10)2、BP网络举例举例1、%traingdclear;clc;P=-1 -1 2 2 4;0 5 0 5 7;T=-1 -1 1 1 -1;%利用minmax函数求输入样本范围net = newff(minmax(P),T,5,1,net.trainParam.show=50;%net.trainParam.lr=0.05;net.trainParam.epochs=300;net,tr=train(net,P,T);net.iw1,1%隐层权值net.b1%隐层阈值net.lw2,1%输出层权值net.b2%输出层阈值sim(net,P)举例2、利用三层BP神经网络来完成非线性函数的
7、逼近任务,其中隐层神经元个数为五个。样本数据:输入X输出D-1.0000-0.9602-0.30000.13360.40000.3072-0.9000-0.5770-0.2000-0.20130.50000.3960-0.8000-0.0729-0.1000-0.43440.60000.3449-0.70000.3771-0.50000.70000.1816-0.60000.64050.1000-0.39300.8000-0.31200.66000.2000-0.16470.9000-0.2189-0.40000.46090.3000-0.09881.0000-0.3201解:看到期望输出的范
8、围是,所以利用双极性Sigmoid函数作为转移函数。程序如下:X=-1:0.1:1;D=-0.9602 -0.5770 -0.0729 0.3771 0.6405 0.6600 0.4609. 0.1336 -0.2013 -0.4344 -0.5000 -0.3930 -0.1647 -.0988. 0.3072 0.3960 0.3449 0.1816 -0.312 -0.2189 -0.3201;figure;plot(X,D,* %绘制原始数据分布图(附录:1-1)net = newff(-1 1,5 1,);net.trainParam.epochs = 1000; %训练的最大次数
9、net.trainParam.goal = 0.005; %全局最小误差net = train(net,X,D);O = sim(net,X);,X,O); %绘制训练后得到的结果和误差曲线(附录:1-2、1-3)V = net.iw1,1;%输入层到中间层权值theta1 = net.b1;%中间层各神经元阈值W = net.lw2,1;%中间层到输出层权值theta2 = net.b2;%输出层各神经元阈值所得结果如下:输入层到中间层的权值:中间层各神经元的阈值:中间层到输出层的权值:输出层各神经元的阈值:举例3、利用三层BP神经网络来完成非线性函数的逼近任务,其中隐层神经元个数为五个。48215396107看到期望输出的范围超出,所以输出层神经元利用线性函数作为转移函数。X = 0 1 2 3 4 5 6 7 8 9 10;D = 0 1 2 3 4 3 2 1 2 3 4; %绘制原始数据分布图net = newff(0 10,5 1,)net.trainParam.epochs = 100;net.trainParam.goal=0.005;net=train(net,X,D);O=sim(net,X);
copyright@ 2008-2022 冰豆网网站版权所有
经营许可证编号:鄂ICP备2022015515号-1