BP神经网络matlab实例(简单而经典).doc

上传人:b****1 文档编号:265754 上传时间:2022-10-08 格式:DOC 页数:7 大小:158.33KB
下载 相关 举报
BP神经网络matlab实例(简单而经典).doc_第1页
第1页 / 共7页
BP神经网络matlab实例(简单而经典).doc_第2页
第2页 / 共7页
BP神经网络matlab实例(简单而经典).doc_第3页
第3页 / 共7页
BP神经网络matlab实例(简单而经典).doc_第4页
第4页 / 共7页
BP神经网络matlab实例(简单而经典).doc_第5页
第5页 / 共7页
点击查看更多>>
下载资源
资源描述

BP神经网络matlab实例(简单而经典).doc

《BP神经网络matlab实例(简单而经典).doc》由会员分享,可在线阅读,更多相关《BP神经网络matlab实例(简单而经典).doc(7页珍藏版)》请在冰豆网上搜索。

BP神经网络matlab实例(简单而经典).doc

学习神经网络的好助手,可以仿照其中的代码,只需修改个别参数便可以轻易实现自己需要完成的任务。

p=p1';t=t1';

[pn,minp,maxp,tn,mint,maxt]=premnmx(p,t);%原始数据归一化

net=newff(minmax(pn),[5,1],{'tansig','purelin'},'traingdx');%设置网络,建立相应的BP网络

net.trainParam.show=2000;%训练网络

net.trainParam.lr=0.01;

net.trainParam.epochs=100000;

net.trainParam.goal=1e-5;

[net,tr]=train(net,pn,tn);%调用TRAINGDM算法训练BP网络

pnew=pnew1';

pnewn=tramnmx(pnew,minp,maxp);

anewn=sim(net,pnewn);%对BP网络进行仿真

anew=postmnmx(anewn,mint,maxt);%还原数据

y=anew';

1、BP网络构建

(1)生成BP网络

由维的输入样本最小最大值构成的维矩阵。

各层的神经元个数。

各层的神经元传递函数。

训练用函数的名称。

(2)网络训练

(3)网络仿真

{'tansig','purelin'},'trainrp'

BP网络的训练函数

训练方法

训练函数

梯度下降法

traingd

有动量的梯度下降法

traingdm

自适应lr梯度下降法

traingda

自适应lr动量梯度下降法

traingdx

弹性梯度下降法

trainrp

Fletcher-Reeves共轭梯度法

traincgf

Ploak-Ribiere共轭梯度法

traincgp

Powell-Beale共轭梯度法

traincgb

量化共轭梯度法

trainscg

拟牛顿算法

trainbfg

一步正割算法

trainoss

Levenberg-Marquardt

trainlm

BP网络训练参数

训练参数

参数介绍

训练函数

net.trainParam.epochs

最大训练次数(缺省为10)

traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm

net.trainParam.goal

训练要求精度(缺省为0)

traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm

net.trainParam.lr

学习率(缺省为0.01)

traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm

net.trainParam.max_fail

最大失败次数(缺省为5)

traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm

net.trainParam.min_grad

最小梯度要求(缺省为1e-10)

traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm

net.trainParam.show

显示训练迭代过程(NaN表示不显示,缺省为25)

traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm

net.trainParam.time

最大训练时间(缺省为inf)

traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm

net.trainParam.mc

动量因子(缺省0.9)

traingdm、traingdx

net.trainParam.lr_inc

学习率lr增长比(缺省为1.05)

traingda、traingdx

net.trainParam.lr_dec

学习率lr下降比(缺省为0.7)

traingda、traingdx

net.trainParam.max_perf_inc

表现函数增加最大比(缺省为1.04)

traingda、traingdx

net.trainParam.delt_inc

权值变化增加量(缺省为1.2)

trainrp

net.trainParam.delt_dec

权值变化减小量(缺省为0.5)

trainrp

net.trainParam.delt0

初始权值变化(缺省为0.07)

trainrp

net.trainParam.deltamax

权值变化最大值(缺省为50.0)

trainrp

net.trainParam.searchFcn

一维线性搜索方法(缺省为srchcha)

traincgf、traincgp、traincgb、trainbfg、trainoss

net.trainParam.sigma

因为二次求导对权值调整的影响参数(缺省值5.0e-5)

trainscg

net.trainParam.lambda

Hessian矩阵不确定性调节参数(缺省为5.0e-7)

trainscg

net.trainParam.men_reduc

控制计算机内存/速度的参量,内存较大设为1,否则设为2(缺省为1)

trainlm

net.trainParam.mu

的初始值(缺省为0.001)

trainlm

net.trainParam.mu_dec

的减小率(缺省为0.1)

trainlm

net.trainParam.mu_inc

的增长率(缺省为10)

trainlm

net.trainParam.mu_max

的最大值(缺省为1e10)

trainlm

2、BP网络举例

举例1、

%traingd

clear;

clc;

P=[-1-1224;05057];

T=[-1-111-1];

%利用minmax函数求输入样本范围

net=newff(minmax(P),T,[5,1],{'tansig','purelin'},'trainrp');

net.trainParam.show=50;%

net.trainParam.lr=0.05;

net.trainParam.epochs=300;

net.trainParam.goal=1e-5;

[net,tr]=train(net,P,T);

net.iw{1,1}%隐层权值

net.b{1}%隐层阈值

net.lw{2,1}%输出层权值

net.b{2}%输出层阈值

sim(net,P)

举例2、利用三层BP神经网络来完成非线性函数的逼近任务,其中隐层神经元个数为五个。

样本数据:

输入X

输出D

输入X

输出D

输入X

输出D

-1.0000

-0.9602

-0.3000

0.1336

0.4000

0.3072

-0.9000

-0.5770

-0.2000

-0.2013

0.5000

0.3960

-0.8000

-0.0729

-0.1000

-0.4344

0.6000

0.3449

-0.7000

0.3771

0

-0.5000

0.7000

0.1816

-0.6000

0.6405

0.1000

-0.3930

0.8000

-0.3120

-0.5000

0.6600

0.2000

-0.1647

0.9000

-0.2189

-0.4000

0.4609

0.3000

-0.0988

1.0000

-0.3201

解:

看到期望输出的范围是,所以利用双极性Sigmoid函数作为转移函数。

程序如下:

clear;

clc;

X=-1:

0.1:

1;

D=[-0.9602-0.5770-0.07290.37710.64050.66000.4609...

0.1336-0.2013-0.4344-0.5000-0.3930-0.1647-.0988...

0.30720.39600.34490.1816-0.312-0.2189-0.3201];

figure;

plot(X,D,'*');%绘制原始数据分布图(附录:

1-1)

net=newff([-11],[51],{'tansig','tansig'});

net.trainParam.epochs=1000;%训练的最大次数

net.trainParam.goal=0.005;%全局最小误差

net=train(net,X,D);

O=sim(net,X);

figure;

plot(X,D,'*',X,O);%绘制训练后得到的结果和误差曲线(附录:

1-2、1-3)

V=net.iw{1,1};%输入层到中间层权值

theta1=net.b{1};%中间层各神经元阈值

W=net.lw{2,1};%中间层到输出层权值

theta2=net.b{2};%输出层各神经元阈值

所得结果如下:

输入层到中间层的权值:

中间层各神经元的阈值:

中间层到输出层的权值:

输出层各神经元的阈值:

举例3、利用三层BP神经网络来完成非线性函数的逼近任务,其中隐层神经元个数为五个。

样本数据:

输入X

输出D

输入X

输出D

输入X

输出D

0

0

4

4

8

2

1

1

5

3

9

3

2

2

6

2

10

4

3

3

7

1

解:

看到期望输出的范围超出,所以输出层神经元利用线性函数作为转移函数。

程序如下:

clear;

clc;

X=[012345678910];

D=[01234321234];

figure;

plot(X,D,'*');%绘制原始数据分布图

net=newff([010],[51],{'tansig','purelin'})

net.trainParam.epochs=100;

net.trainParam.goal=0.005;

net=train(net,X,D);

O=sim(net,X);

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 高等教育 > 法学

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1