ImageVerifierCode 换一换
格式:DOCX , 页数:16 ,大小:706.26KB ,
资源ID:13047280      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/13047280.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(Adaline的LMS算法Word格式.docx)为本站会员(b****9)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

Adaline的LMS算法Word格式.docx

1、1、 通过实验了解Adaline的工作原理2、 对比LMS的三种算法,并通过上机实验掌握具体实现方法3、 与采用硬限幅函数的单个神经元模型进行对比,比较其异同二、实验原理采用硬限幅函数的单个神经元,通过简单的学习算法,可以成功实现两类线性可分类的分类功能。但对于大多数的非线性可分类来说,则无法完成分类功能,为此我们转而采用具有线性功能函数的神经元Adaline(Adaptive Linear Element)方法。设输入矢量X=x1,x2,xN,加权矢量W=w1,w2,wN,则神经元的输出可以通过下式来计算:I=WXT=XWT y=fI=WXT=XWT (1)要实现Adaline的分类功能,按

2、照最小二乘法的统计意义而言,就是要求所有样本的实际输出值与理想预期值之间的误差的均方值最小。设输入观察矢量X的期望输出是d,当权向量为W时的实际输出是y,定义=d-y。考虑所有可能出现样本的均方误差: E2=E(d-y)2 (2)将(1)式代入,可得: E2=Ed2+WRWT-2PWT (3)其中,REXTX是输入向量的自相关矩阵,PEdX是输入向量与期望输出的互相关向量。由(3)式可知必定存在最佳的加权矢量W*使均方误差达到最小,对(3)式求梯度可得: wE2=2WR-2P (4)由(4)式可解最优权向量: W*=PR-1 (5)(5)式给出了求最佳加权矢量的方法,但是需要做大量的统计计算,

3、而且当输入矢量X的维数很大时,需要解决高阶矩阵求逆的问题,这些都是非常困难的。于是我们给出下面三种递推求解的方法。2.1 LMS学习问题的严格递推学习算法1. 任意设置初始权向量W(0);2. 对于每一个时序变量k,按下式调整权向量W: Wk+1=Wk+-wE2(k), k=1,2, (6)(6)式的含义为,应该向梯度的负方向调整加权向量W(k),只要选定合适的步幅系数就能保证学习的收敛性。求出(6)式中的梯度: w=-2E(k)X(k) (7)于是(6)式变为:Wk+1=Wk+2E(k)X(k) (8)用这种方法可以保证求得严格的最佳解,而且避开了矩阵求逆的困难,但学习过程中的每一步仍需完成

4、大量的统计计算,统计计算的困难尚需解决。2.2 LMS学习问题的随机逼近算法 将(8)是修正为如下形式: Wk+1=Wk+2(k)X(k) (9)即得到随机逼近算法,与其严格递推算法的区别在于:用(k)X(k)代替E(k)X(k),由此避免了统计计算的困难,但同时也给加权矢量的变化趋势带来了随机性。2.3 LMS学习问题的基于统计的算法 这是一种具有一定统计特性的学习算法 假设学习进行到第k步时,可能出现的样本有P个,分别用XP(k)表示,下标p=1,2,P表示在第k步学习过程中可能出现的不同样本编号。第p个样本的理想输出和实际输出分别用dpk和yp(k)表示。我们定义“误差平方和”J(k)如

5、下: J(k)=1PPP2(k) (10)其中pk=dpk-ypk,wJ(k)相对于W的梯度为:wJ(k)=-2pppkXp(k) (11)令误差朝J(k)减小的方向调整,可得如下递推算法:Wk+1=Wk+2pppkXp(k) (12)当P的数量非常大,使上式右端的求和项足以代表输入的统计特性时,(12)式与(8)式(严格递推算法)一致,当P取1时,(12)式与(9)式(随机逼近算法)一致。三、实验内容及步骤3.1 LMS算法根据实验原理,REXTX即输入矢量的自相关阵,可得:PEdX是输入向量与期望输出的互相关向量,可得:最佳权向量W*=PR-1,则有:档W=W*时,均方误差取得最小值:可得

6、:E2min=Emin=Ed2-PW*T=0.26233.2 随机逼近算法随机逼近算法,根据给出的权向量初始值,每步从样本中随机的选择一个,按照迭代公式(9),计算下一步的权向量,根据计算出的权向量,计算此时系统的输出矢量Y,与理想输出比较,得到此时系统的均方误差,若均方误差满足要求,则迭代结束,否则再选择样本进行训练。下图为随机逼近算法的简单结构框图:按照式(9)计算W(k+1)计算E2=Ed-y2计算输出Y=W*XTE2-Emin0.001随机选择一个样本结 束NY随机逼近算法框图其中,步幅系数=0.01,加权系数的初始值选择为W(1)=0.1,0.1,学习结束的条件为随机逼近算法的均方误

7、差E2Emin+0.001图1 =0.01时,均方误差随训练次数的变化曲线迭代结束后,随机逼近算法计算出的加权系数矩阵:W=0.3793,0.3257如图1所示为实验结果。在=0.01时,均方误差随训练次数的变化曲线,随着学习的进行,均方误差逐渐减小。但是从图中可以看见会有微小的起伏,这是因为每一步加权系数的调整量是向所选样本的误差梯度的负方向调整,但是总的趋势是误差减小的方向,最后满足误差的要求。 下列各图为取值不同时,均方误差随训练次数变化的曲线。图2 =0.002时,均方误差随训练次数的变化曲线图3 =0.008时,均方误差随训练次数的变化曲线图4 =0.01时,均方误差随训练次数的变化

8、曲线图5 =0.02时,均方误差随训练次数的变化曲线图6 =0.1时,均方误差随训练次数的变化曲线图7 =0.3时,均方误差随训练次数的变化曲线从图中可以看出,在=0.002,0.008,0.01,0.02时,学习均是收敛的,只是对于不同的步幅系数,收敛速度不同。在=0.02时收敛最快,在=0.002时收敛较慢,但是当=0.1和=0.3时学习是不收敛的。原因:步幅系数影响每次对于加权系数W的调整量,因此,在步幅系数较小时(例=0.002),每次学习对于加权系数的调整很小,因此训练的次数较多,但是会收敛。在步幅系数较大时(例=0.1),每次学习对于加权系数的调整也会较大,所以,可能会出现这次学习

9、之前,误差没有达到指定的精度,但是学习之后,由于调整量太大而又超过了指定精度。所以会出现想图6所示的振荡现象。3.3 基于统计的算法基于统计的算法,根据给出的权向量初始值,每步随机的选择几个样本,(在本次实验中,随机的选择5个样本)按照迭代公式(12),计算下一步的权向量,根据计算出的权向量,计算出此时系统的输出矢量Y,与理想输出比较,得到此时的均方误差,若均方误差满足要求,则迭代结束,否则再选择样本进行训练。下图为基于统计算法的简单结构框图:按照式(12)计算W(k+1)随机选择五个样本基于统计的算法框图其中,步幅系数=0.02,输入矢量样本P=5,加权系数的初始值选择为W(1)=0.1,0

10、.1,学习结束的条件为此算法的均方误差E2Emin+0.001图8 P=5时,均方误差随训练次数的变化曲线迭代结束后,基于统计的算法计算出的加权系数矩阵为:W=0.3283,0.3506如图8所示为基于统计的算法的实验结果。在P=5时,随着学习的进行,均方误差逐渐减小。与随机逼近算法一样,图中可以看出在逼近过程中会有微小的起伏,这是因为每一步加权系数的调整量是向所选5个样本的误差平方和的梯度的负方向调整。但是总的趋势是误差减小的方向,最后满足误差的要求。 下列各图为P取值不同时,均方误差随训练次数变化的曲线。图9 P=2时,均方误差随训练次数的变化曲线图10 P=50时,均方误差随训练次数的变

11、化曲线从图中可以看出在合适的步幅系数=0.02时,学习过程均是收敛的,随着P取值的不同,训练次数不同。P取值越大,每步调整的加权系数W越精确,所以训练的次数应该越小。但是我的实验中,在P=50时,虽然收敛的效果很好,但是训练次数太多。3.4 Widrow严格递推算法Widrow严格递推算法,与前两种方法不同的是,每一步调整都是利用所有的样本,计算其理想输出与实际输出的误差,权向量向误差梯度的负方向调整。即每一步利用所有的样本计算调整量,根据给出的权向量初始值,按照迭代公式(8),计算下一步的权向量,再计算此时系统的输出矢量Y,与理想输出比较,得到此时系统的均方误差,若均方误差满足要求,则迭代结

12、束,否则选择样本进行训练。下图为Widrow严格递推算法的简单结构框图:按照式(8)计算W(k+1)计算系统输出Y=W*XT所有的输入矢量Widrow严格递推算法框图其中,步幅系数=0.02,加权系数的初始值选择为W(1)=0.1,0.1,学习结束的条件为此算法的均方误差E2Emin+0.001图11 =0.02时,均方误差随训练次数的变化曲线迭代结束后,Widrow严格递推算法计算出的加权系数矩阵:W=0.3454,0.3296如图11所示,为=0.02时,Widrow的严格递推算法计算的系统的均方误差随训练次数的变化情况,从图中可以看见,因为此算法每次对于加权系数的调整是利用所有的输入矢量,即向系统的均方误差减小的方向调整,所以迭代次数比起另外两种方法少很多。而且均方误差随着训练次数的变化曲线是一直减小的,因为每一步计算的均方误差也是系统的均方误差。

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1