ImageVerifierCode 换一换
格式:DOCX , 页数:18 ,大小:188.89KB ,
资源ID:8027252      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/8027252.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(BP神经网络的Matlab语法.docx)为本站会员(b****5)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

BP神经网络的Matlab语法.docx

1、BP神经网络的Matlab语法 1. 数据预处理 在训练神经网络前一般需要对数据进行预处理,一种重要的预处理手段是归一化处理。下面简要介绍归一化处理的原理与方法。(1) 什么是归一化?数据归一化,就是将数据映射到0,1或-1,1区间或更小的区间,比如(0.1,0.9) 。(2) 为什么要归一化处理?输入数据的单位不一样,有些数据的范围可能特别大,导致的结果是神经网络收敛慢、训练时间长。数据范围大的输入在模式分类中的作用可能会偏大,而数据范围小的输入作用就可能会偏小。由于神经网络输出层的激活函数的值域是有限制的,因此需要将网络训练的目标数据映射到激活函数的值域。例如神经网络的输出层若采用S形激活

2、函数,由于S形函数的值域限制在(0,1),也就是说神经网络的输出只能限制在(0,1),所以训练数据的输出就要归一化到0,1区间。S形激活函数在(0,1)区间以外区域很平缓,区分度太小。例如S形函数f(X)在参数a=1时,f(100)与f(5)只相差0.0067。(3) 归一化算法一种简单而快速的归一化算法是线性转换算法。线性转换算法常见有两种形式: y = ( x - min )/( max - min )其中min为x的最小值,max为x的最大值,输入向量为x,归一化后的输出向量为y 。上式将数据归一化到 0 , 1 区间,当激活函数采用S形函数时(值域为(0,1))时这条式子适用。 y =

3、 2 * ( x - min ) / ( max - min ) - 1 这条公式将数据归一化到 -1 , 1 区间。当激活函数采用双极S形函数(值域为(-1,1))时这条式子适用。(4) Matlab数据归一化处理函数Matlab中归一化处理数据可以采用premnmx , postmnmx , tramnmx 这3个函数。 premnmx语法:pn,minp,maxp,tn,mint,maxt = premnmx(p,t)参数:pn: p矩阵按行归一化后的矩阵minp,maxp:p矩阵每一行的最小值,最大值tn:t矩阵按行归一化后的矩阵mint,maxt:t矩阵每一行的最小值,最大值作用:将

4、矩阵p,t归一化到-1,1 ,主要用于归一化处理训练数据集。 tramnmx语法:pn = tramnmx(p,minp,maxp)参数:minp,maxp:premnmx函数计算的矩阵的最小,最大值pn:归一化后的矩阵作用:主要用于归一化处理待分类的输入数据。 postmnmx语法: p,t = postmnmx(pn,minp,maxp,tn,mint,maxt)参数:minp,maxp:premnmx函数计算的p矩阵每行的最小值,最大值mint,maxt:premnmx函数计算的t矩阵每行的最小值,最大值作用:将矩阵pn,tn映射回归一化处理前的范围。postmnmx函数主要用于将神经网

5、络的输出结果映射回归一化前的数据范围。2. 使用Matlab实现神经网络使用Matlab建立前馈神经网络主要会使用到下面3个函数:newff :前馈网络创建函数train:训练一个神经网络sim :使用网络进行仿真下面简要介绍这3个函数的用法。(1) newff函数 newff函数语法 newff函数参数列表有很多的可选参数,具体可以参考Matlab的帮助文档,这里介绍newff函数的一种简单的形式。语法:net = newff ( A, B, C ,trainFun)参数:A:一个n2的矩阵,第i行元素为输入信号xi的最小值和最大值;B:一个k维行向量,其元素为网络中各层节点数;C:一个k维

6、字符串行向量,每一分量为对应层神经元的激活函数;trainFun :为学习规则采用的训练算法。表3.1 BP网络的常用函数表函数类型函数名称函数用途前向网络创建函数newcf创建级联前向网络Newff创建前向BP网络传递函数logsigS型的对数函数tansigS型的正切函数purelin纯线性函数 学习函数learngd基于梯度下降法的学习函数learngdm梯度下降动量学习函数性能函数 mse均方误差函数msereg均方误差规范化函数 显示函数plotperf绘制网络的性能plotes绘制一个单独神经元的误差曲面plotep绘制权值和阈值在误差曲面上的位置errsurf计算单个神经元的误差

7、曲面3.1.1 BP网络创建函数1) newff该函数用于创建一个BP网络。调用格式为:net=newffnet=newff(PR,S1 S2.SN1,TF1 TF2.TFN1,BTF,BLF,PF)其中,net=newff;用于在对话框中创建一个BP网络。net为创建的新BP神经网络;PR为网络输入向量取值范围的矩阵;S1 S2SNl表示网络隐含层和输出层神经元的个数;TFl TF2TFN1表示网络隐含层和输出层的传输函数,默认为tansig;BTF表示网络的训练函数,默认为trainlm;BLF表示网络的权值学习函数,默认为learngdm;PF表示性能数,默认为mse。常用的激活函数常用

8、的激活函数有:a) 线性函数 (Linear transfer function)f(x) = x该函数的字符串为purelin。b) 对数S形转移函数( Logarithmic sigmoid transfer function ) 该函数的字符串为logsig。c) 双曲正切S形函数 (Hyperbolic tangent sigmoid transfer function )也就是上面所提到的双极S形函数。该函数的字符串为 tansig。Matlab的安装目录下的toolboxnnetnnetnntransfer子目录中有所有激活函数的定义说明。常见的训练函数 常见的训练函数有:trai

9、ngd :梯度下降BP训练函数(Gradient descent backpropagation)traingdx :梯度下降自适应学习率训练函数如果考虑增加动量项,可以使用两个训练函数:traingdm和traingdxtraingdm有动量的梯度下降法,设置动量因子的命令如下:net.trainParam.mc=0.9(缺省值为0.9)traingdx有自适应lr的动量梯度下降法,设置动量因子的命令同traingdm网络配置参数一些重要的网络配置参数如下:net.trainparam.goal :神经网络训练的目标误差net.trainparam.show : 显示中间结果的周期net.t

10、rainparam.epochs :最大迭代次数net.trainParam.lr : 学习率net.trainParam.max_fail :验证次数 validationnet.trainParam.mc = 0.9; 动量因子(2) train函数 网络训练学习函数。语法: net, tr, Y1, E = train( net, X, Y )参数:X:网络实际输入Y:网络应有输出tr:训练跟踪信息Y1:网络实际输出E:误差矩阵(3) sim函数语法:Y=sim(net,X)参数:net:网络X:输入给网络的N矩阵,其中K为网络输入个数,N为数据样本数Y:输出矩阵QN,其中Q为网络输出个

11、数保存网络validation checks是用来防止网络训练过适的,即是训练时网络的验证误差大于训练误差的次数,默认值为6就是大于次数达到6次训练就会停止。网络训练过适时,即使performance还在减小网络性能也不会提高,反而会降低,因此要设定过适次数来提前训练以保证网络性能。% 当前输入层权值和阈值inputWeights=net.IW1,1 inputbias=net.b1 % 当前网络层权值和阈值layerWeights=net.LW2,1 layerbias=net.b2inputWeights=net.IW1,1 inputbias=net.b1 %当前输入层权值和阀值 lay

12、erWeights=net.LW2,1 layerbias=net.b2net.IW1,1;输入层到第一层隐层的权值net.b1,1;输入层到第一层隐层的阈值net.LW2,1;第一层隐层到第二层隐层的权值net.b2,1;第一层隐层到第二层隐层的阈值net.LW3,2;第二层隐层到输出层的权值net.b3,2;第二层隐层到输出层的阈值1网络总体结构网络总体结构包括以下属性:(1) numInputs:该属性定义了神经网络的输入个数,属性值可以是 0 或正整数。需要注意的是,该属性定义了网络输入矢量的总个数,而不是单个输入矢量的维数。(2) numLayers:该属性定义了神经网络的层数,其属

13、性值可以是 0 或正整数。(3) biasConnect:该属性定义了神经网络的每层是否具有阈值,其属性值为 N1 维的布尔量矩阵,其中 N 为网络的层数(net.numLayers)。net.biasConnect(i)为 1,表示第 i 层上的神经元具有阈值,为 0 则表示该层没有阈值.(4) inputConnect:该属性定义了神经网络的输入层,其属性值为 NNi 维的布尔量矩阵,其中 N 为网络的层数,Ni 为网络的输入个数(net.numInputs)。net.inputConnect(i,j)为1,表示第 i 层上的每个神经元都要接收网络的第 j 个输入矢量,为 0 则表示不接收

14、该 输入。(5) layerConnect:该属性定义了网络各层的连接情况,其属性值为 NN 维的布尔量矩阵,其中 N 为网络的层数。net.layerConnect(i,j)为 1,表示第 i 层与第 j 层上的神经元相连,为 0 则表示它们不相连。(6) outputConnect:该属性定义了神经网络的输出层,其属性值为 1N 维的布尔量矩阵,其中 N 为网络的层数。net.outputConnect(i)为 1,表示第 i 层神经元将产生网络的输出,为 0 则表示该层不产生输出。(7) targetConnect:该属性定义了神经网络的目标层,即网络哪些层的输出具有目标矢量。其属性值为

15、 1N 维的布尔量矩阵,其中 N 为网络的层数。net.targetConnect(i)为 1,表示第 i 层神经元产生的输出具有目标矢量,为 0 则表示该层输出不具有目标矢量。(8) numOutputs:该属性定义了神经网络输出矢量的个数,属性值为只读变量,其数值为网络中输出层的总数(sum(net.outputConnect)。(9) numTargets:该属性定义了网络目标矢量的个数,属性值为只读变量,其数值为网络中目标层的总数(sum(net.targetConnect)。(10) numInputDelays:该属性定义了神经网络的输入延迟,属性值为只读变量,其数值为网络各输入层

16、输入延迟拍数(net.inputWeightsi,j.delays)中的最大值。(11) numLayerDelays:该属性定义了神经网络的层输出延迟,属性值为只读变量,其数值为各层的神经元之间连接延迟拍数(net.layerWeightsi,j.delays)中的最大值。2子对象结构 子对象结构包括以下属性:(1) inputs:该属性定义了神经网络每个输入的属性,其属性值为 Ni1 维的单元数组,其中 Ni 为网络输入的个数。(2) layers:该属性定义了神经网络每层神经元的属性,其属性值为 N1 维的单元数组,其中 N 为网络的层数。(3) outputs:该属性定义了神经网络每个

17、输出的属性,其属性值为 N1 维的单元数组,其中 N 为网络的层数。(4) targets:该属性定义了每层神经网络目标矢量的属性,其属性值为 N1 维的单元数组,其中 N 为网络的层数。(5) biases:该属性定义了每层神经网络阈值的属性,其属性值为 N1 维的单元数组,其中 N 为网络的层数。(6) inputWeights:该属性定义了神经网络每组输入权值的属性,其属性值为 NNi 维的单元数组,其中 N 为网络的层数,Ni 为网络的输入个数。(7) layerWeights:该属性包括了神经网络各层神经元之间网络权值的属性,其属性值为 NN 维的单元数组,其中 N 为网络的层数。3

18、函数 神经网络对象的函数包括以下属性:(1) adaptFcn:该属性定义了网络的自适应调整函数,其属性值为表示自适应函数名称的字符串。(2) initFcn:该属性定义了网络的初始化函数,其属性值为表示网络初始化函数名称的字符串。(3) performFcn:该属性定义了衡量网络输出误差的性能函数,其属性值为表示性能函数名称的字符串。(4) trainFcn:该属性定义了网络的训练函数,其属性值为表示训练函数名称的字符串。4函数参数 神经网络对象的函数参数包括以下属性:(1) adaptParam:该属性定义了网络当前自适应函数的各参数,其属性值为各参数构成的结构体。(2) initPara

19、m:该属性定义了网络当前初始化函数的各参数,其属性值为各参数构成的结构体。(3) performParam:该属性定义了网络当前性能函数的各参数,其属性值为各参数构成的结构体。(4) trainParam:该属性定义了网络当前训练函数的各参数,其属性值为各参数构成的结构体。5权值和阈值神经网络对象的权值和阈值包括以下属性:(1) IW:该属性定义了网络输入和各输入层神经元之间的网络权值,属性值为 NNi维的单元数组,其中,N 为网络的层数,Ni 为网络的输入个数。如果 net.inputConnect(i,j)为 1,即第 i 层上的各神经元接收网络的第 j 个输入,那么在单元 net.IWi

20、,j中将存储它们之间的网络权值矩阵,该矩阵的行数为第 i 层神经元的个数(net.layersi.size),列数为第 j个输入的维数(net.inputsj.size)与输入延迟拍数(net.inputWeightsi,j.delays)的乘积。(2) LW:该属性定义了各层神经元之间的网络权值,其属性值为 NN 维的单元数组,其中 N 为网络的层数。如果 net.layerConnect(i,j)为 1,即第 i 层与第 j 层上的神经元相连,那么在单元 net.LWi,j中将存储它们之间的网络权值矩阵,该矩阵的行数为第 i 层上神经元的个数(net.layersi.size),列数为第

21、j 层神经元的个数(net.layersj.size)与层输入延迟拍数(net.layerWeightsi,j.delays)的乘积。(3) b:该属性定义了各层神经元的阈值,其属性值为 1N 维的单元数组,其中 N 为网络的层数。如果 net.biasConnect(i)为 1,即第 i 层的神经元具有阈值,那么单元 net.bi中将存储该层的阈值矢量,矢量维数和第 i 层的神经元个数(net.layersj.size)相等。6其他数据userdata 属性用于存储用户信息。2 神经网络的细节结构(子对象属性)将详细介绍网络输入、网络层、输出、目标、权值和阈值等子对象的属性。1输入(inpu

22、ts)网络输入 net.inputs 为 Ni1 维的单元数组,其中 net.inputsi中存储了网络第 i 个输入的信息。网络的每个输入具有以下属性:(1) size:该属性定义了输入矢量的维数,其属性值可以为 0 或正整数。(2) range:该属性定义了输入矢量的取值范围,其属性值为 Ri2 维的矩阵,Ri 为输入矢量的维数(net.inputsi.size),该矩阵中的每一行表示输入矢量中各维元素可取的最小值和最大值。(3) userdata:该属性用于存储用户信息。2层(layers) 网络各层 net.layers 为 N1 维的单元数组,其中 net.layersi中存储了网络

23、第 i 层的信息。网络的每一层具有以下属性:(1) size:该属性定义了每层神经元的个数,其属性值可以为 0 或正整数。(2) dimensions:该属性定义了每层神经元在多维空间中排列时各维的维数,其属性值为一个行矢量,该矢量中各元素的乘积等于该层神经元的个数(net.layersi.size)。该属性对于自组织映射网络十分重要。(3) topologyFcn:该属性定义了每层神经元在多维空间中分布的拓扑函数,其属性值为表示拓扑函数名称的字符串。(4) positions:该属性定义了每层网络中各神经元的位置坐标,属性值为只读变量,其值由拓扑函数(net.layersi.topology

24、Fcn)和神经元在各维分布的维数(net.layersi.dimensions)来确定。(5) distanceFcn:该属性定义了每层神经元间距的计算函数,其属性值为表示距离函数名称的字符串。(6) distances:该属性定义了每层网络中各神经元之间的距离,属性值为只读变量,其数值由神经元的位置坐标(net.layersi.positions)和距离函数(net.layersi.distanceFcn)来 确定。(7) initFcn:该属性定义了每层神经元的初始化函数,其属性值为表示初始化函数名称的字符串。(8) netInputFcn:该属性定义了每层神经元的输入函数,其属性值为表示

25、输入函数名称的字符串。该函数确定了网络每层的加权输入以何种方式和阈值组合在一起以形成神经元传递函数的输入。(9) transferFcn:该属性定义了每层神经元的传递函数,其属性值为表示传递函数名称的字符串。(10) userdata:该属性用于存储用户信息。3输出(outputs)网络输出 net.outputs 为 N1 维的单元数组,如果第 i 层产生网络的一个输出,那么在net.outputsi中将存储该输出量的信息。网络的每一个输出都具有以下属性:(1) size:该属性定义了每一个网络输出的维数,属性值为只读变量,其数值等于该输出层中神经元的个数(net.layersi.size)

26、 。(2) userdata:该属性用于存储用户信息4目标(targets)目标 net.targets 为 N1 维的单元数组,如果第 i 层具有网络的一个目标矢量,那么在net.targetsi中将存储该目标矢量的信息。网络的每一个目标矢量都具有以下属性:(1) size:该属性定义了每一个神经网络目标矢量的维数,属性值为只读变量,其数值等于第 i 层中神经元的个数(net.layersi.size)。(2) userdata:该属性用于存储用户信息。5阈值(biases)阈值 net.biases 为 N1 维的单元数组,第 i 个单元 net.biasesi中存储了第 i 层神经元的阈

27、值信息。网络中每一层神经元的阈值都具有以下属性:(1) initFcn:该属性定义了阈值的初始化函数,其属性值为表示阈值初始化函数名称的字符串。(2) learn:该属性定义了阈值在训练过程中是否进行调整,其属性值为 0 或 1。(3) learnFcn:该属性定义了阈值的学习函数,其属性值为表示阈值学习函数名称的字符串。(4) learnParam:该属性定义了阈值学习函数的参数,其属性值为各参数构成的结 构体。(5) size:该属性定义了每层神经网络的阈值个数,属性值为只读变量,其数值等于该层神经元的个数(net.layersi.size)。(6) userdata:该属性用于存储用户信

28、息。6输入权值(inputWeights)网络输入权值 net.inputWeights 为 NNi 维的单元数组,其中 net.inputWeightsi,j为网络第 j 个输入到网络第 i 层的网络权值的属性。每一组网络输入权值都具有以下属性:(1) delays:该属性定义了网络输入的各延迟拍数,其属性值是由 0 或正整数构成的行矢量,各输入层实际接收的是由网络输入的各个延迟构成的混合输入。(2) initFcn:该属性定义了输入权值的初始化函数,其属性值为表示权值初始化函数名称的字符串。(3) learn:该属性定义了输入权值在训练过程中是否进行调整,其属性值为 0 或 1。(4) l

29、earnFcn:该属性定义了输入权值的学习函数,其属性值为表示权值学习函数名称的字符串。(5) learnParam:该属性定义了权值学习函数的参数,其属性值为各参数构成的结 构体。(6) size:该属性定义了每个输入权值矩阵(net.IWi,j)的大小,其属性值是一个具有两元 素 的 行 矢 量 , 并 且 是 只 读 变 量 , 其 中 第 一 个 元 素 等 于 该 层 神 经 元 的 个 数(net.layersi.size),第二个元素等于输入延迟矢量的长度(length(net.inputWeightsi,j.delays)和输入矢量维数(net.inputsj.size)的乘积。(7) userdata:该属性用于存储用户信息。(8) weightFcn:该属性定义了输入权值的加权函数,其属性值为表示加权函数名称的字符串,该函数确定了输入和权值以何种方式组合在一起构成神经元的加权输入量。7各层网络权值(layerWeights)网 络 各 层 间 的 网 络 权 值 net.layerWeights 为 N N 维 的 单 元 数 组 , 其 中net.layerWeightsi,j

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1