基于神经网络模型的自适应控制系统设计及仿真Word文件下载.docx

上传人:b****2 文档编号:14712363 上传时间:2022-10-24 格式:DOCX 页数:38 大小:722.16KB
下载 相关 举报
基于神经网络模型的自适应控制系统设计及仿真Word文件下载.docx_第1页
第1页 / 共38页
基于神经网络模型的自适应控制系统设计及仿真Word文件下载.docx_第2页
第2页 / 共38页
基于神经网络模型的自适应控制系统设计及仿真Word文件下载.docx_第3页
第3页 / 共38页
基于神经网络模型的自适应控制系统设计及仿真Word文件下载.docx_第4页
第4页 / 共38页
基于神经网络模型的自适应控制系统设计及仿真Word文件下载.docx_第5页
第5页 / 共38页
点击查看更多>>
下载资源
资源描述

基于神经网络模型的自适应控制系统设计及仿真Word文件下载.docx

《基于神经网络模型的自适应控制系统设计及仿真Word文件下载.docx》由会员分享,可在线阅读,更多相关《基于神经网络模型的自适应控制系统设计及仿真Word文件下载.docx(38页珍藏版)》请在冰豆网上搜索。

基于神经网络模型的自适应控制系统设计及仿真Word文件下载.docx

Mcculloch和数理逻辑学家W·

Pitts在分析、总结神经元基本特性的基础上首先提出神经元的数学模型。

此模型沿用至今,并且直接影响着这一领域研究的进展。

因而,他们两人可称为人工神经网络研究的先驱。

1945年冯·

诺依曼领导的设计小组试制成功存储程序式电子计算机,标志着电子计算机时代的开始。

1948年,他在研究工作中比较了人脑结构与存储程序式计算机的根本区别,提出了以简单神经元构成的再生自动机网络结构。

但是,由于指令存储式计算机技术的发展非常迅速,迫使他放弃了神经网络研究的新途径,继续投身于指令存储式计算机技术的研究,并在此领域作出了巨大贡献。

虽然,冯·

诺依曼的名字是与普通计算机联系在一起的,但他也是人工神经网络研究的先驱之一。

50年代末,F·

Rosenblatt设计制作了“感知机”,它是一种多层的神经网络。

这项工作首次把人工神经网络的研究从理论探讨付诸工程实践。

当时,世界上许多实验室仿效制作感知机,分别应用于文字识别、声音识别、声纳信号识别以及学习记忆问题的研究。

然而,这次人工神经网络的研究高潮未能持续很久,许多人陆续放弃了这方面的研究工作,这是因为当时数字计算机的发展处于全盛时期,许多人误以为数字计算机可以解决人工智能、模式识别、专家系统等方面的一切问题,使感知机的工作得不到重视;

其次,当时的电子技术工艺水平比较落后,主要的元件是电子管或晶体管,利用它们制作的神经网络体积庞大,价格昂贵,要制作在规模上与真实的神经网络相似是完全不可能的;

另外,在1968年一本名为《感知机》的著作中指出线性感知机功能是有限的,它不能解决如异感这样的基本问题,而且多层网络还不能找到有效的计算方法,这些论点促使大批研究人员对于人工神经网络的前景失去信心。

60年代末期,人工神经网络的研究进入了低潮。

另外,在60年代初期,Widrow提出了自适应线性元件网络,这是一种连续取值的线性加权求和阈值网络。

后来,在此基础上发展了非线性多层自适应网络。

当时,这些工作虽未标出神经网络的名称,而实际上就是一种人工神经网络模型。

随着人们对感知机兴趣的衰退,神经网络的研究沉寂了相当长的时间。

80年代初期,模拟与数字混合的超大规模集成电路制作技术提高到新的水平,完全付诸实用化,此外,数字计算机的发展在若干应用领域遇到困难。

这一背景预示,向人工神经网络寻求出路的时机已经成熟。

美国的物理学家Hopfield于1982年和1984年在美国科学院院刊上发表了两篇关于人工神经网络研究的论文,引起了巨大的反响。

人们重新认识到神经网络的威力以及付诸应用的现实性。

随即,一大批学者和研究人员围绕着Hopfield提出的方法展开了进一步的工作,形成了80年代中期以来人工神经网络的研究热潮。

 

 1985年,Ackley,Hinton,andSejnowski将模拟退火算法应用到神经网络训练中,提出了Boltzmann机,该算法具有逃离极值的优点,但是训练时间需要很长。

1986年,Rumelhart,Hinton,andWilliams提出了多层前馈神经网络的学习算法,即BP算法。

它从证明的角度推导算法的正确性,是学习算法有理论依据。

从学习算法角度上看,是一个很大的进步。

1988年,BroomheadandLowe第一次提出了径向基网络:

RBF网络。

1.3设计要求

1、设计要求

1)首先完成简单控制系统模块的仿真分析;

2)提出自适应控制系统设计的方法;

3)建立基于神经网络的自适应控制系统的仿真模型;

4)利用simulink对基于神经网络的自适应控制系统模型进行仿真;

5)从仿真结果分析基于神经网络模型的自适应控制算法的性能。

2、原始资料

1)MATLAB语言;

2)控制系统设计的基础理论;

3)Simulink中控制系统模块的应用;

4)翻译相关课题英文资料。

 

第二章神经网络

2.1神经网络简介

人工神经网络(artificialneuralnetwork,ANN)是模仿生物神经网络功能的一种经验模型。

生物神经元受到传入的刺激,其反应又从输出端传到相联的其它神经元,输入和输出之间的变换关系一般是非线性的。

神经网络是由若干简单(通常是自适应的)元件及其层次组织,以大规模并行连接方式构造而成的网络,按照生物神经网络类似的方式处理输入的信息。

模仿生物神经网络而建立的人工神经网络,对输入信号有功能强大的反应和处理能力[9]。

神经网络是由大量的处理单元(神经元)互相连接而成的网络。

为了模拟大脑的基本特性,在神经科学研究的基础上,提出了神经网络的模型。

但是,实际上神经网络并没有完全反映大脑的功能,只是对生物神经网络进行了某种抽象、简化和模拟[8]。

神经网络的信息处理通过神经元的互相作用来实现,知识与信息的存储表现为网络元件互相分布式的物理联系。

神经网络的学习和识别取决于各种神经元连接权系数的动态演化过程。

若干神经元连接成网络,其中的一个神经元可以接受多个输入信号,按照一定的规则转换为输出信号。

由于神经网络中神经元间复杂的连接关系和各神经元传递信号的非线性方式,输入和输出信号间可以构建出各种各样的关系,因此可以用来作为黑箱模型,表达那些用机理模型还无法精确描述、但输入和输出之间确实有客观的、确定性的或模糊性的规律。

因此,人工神经网络作为经验模型的一种,在化工生产、研究和开发中得到了越来越多的用途。

2.2神经网络结构与学习规则

2.2.1人工神经元模型

图3-1表示出了作为人工神经网络(artificialneuralnetwork,以下简称NN)的基本单元的神经元模型,它有三个基本要素:

图3-1人工神经网络模型

()一组连接(对应于生物神经元的突触),连接强度由各连接上的权值表示,权值为正表示激活,为负表示抑制。

()一个求和单元,用于求取各输入信号的加权和(线性组合)。

()一个非线性激活函数,起非线性映射作用并将神经元输出幅度限制在一定范围内(一般限制在或之间)。

此外还有一个阈值(或偏置)。

以上作用可分别以数学式表达出来:

,,

式中为输入信号,为神经元之权值,为线性组合结果,为阈值,为激活函数,为神经元的输出。

若把输入的维数增加一维,则可把阈值包括进去。

例如

此处增加了一个新的连接,其输入为(或),权值为(或),如图3-2所示。

图3-2复杂人工神经网络模型

激活函数可以有以下几种:

()阈值函数

即阶梯函数。

这时相应的输出为

其中,常称此种神经元为模型。

()分段线性函数

它类似于一个放大系数为1的非线性放大器,当工作于线性区时它是一个线性组合器,放大系数趋于无穷大时变成一个阈值单元。

()sigmoid函数

最常用的函数形式为

参数可控制其斜率。

另一种常用的是双曲正切函数

这类函数具有平滑和渐近性,并保持单调性。

Matlab中的激活(传递)函数如下表所示:

表2-1传递函数

函数名

功能

purelin

线性传递函数

hardlim

硬限幅传递函数

hardlims

对称硬限幅传递函数

satlin

饱和线性传递函数

satlins

对称饱和线性传递函数

logsig

对数S形传递函数

tansig

正切S形传递函数

radbas

径向基传递函数

compet

竞争层传递函数

各个函数的定义及使用方法,可以参看Matlab的帮助(如在Matlab命令窗口运行helptansig,可以看到tantig的使用方法,及tansig的定义为)。

2.2.2网络结构及工作方式

除单元特性外,网络的拓扑结构也是NN的一个重要特性。

从连接方式看NN主要有两种。

()前馈型网络

各神经元接受前一层的输入,并输出给下一层,没有反馈。

结点分为两类,即输入单元和计算单元,每一计算单元可有任意个输入,但只有一个输出(它可耦合到任意多个其它结点作为其输入)。

通常前馈网络可分为不同的层,第层的输入只与第层输出相连,输入和输出结点与外界相连,而其它中间层则称为隐层。

()反馈型网络

所有结点都是计算单元,同时也可接受输入,并向外界输出。

NN的工作过程主要分为两个阶段:

第一个阶段是学习期,此时各计算单元状态不变,各连线上的权值可通过学习来修改;

第二阶段是工作期,此时各连接权固定,计算单元状态变化,以达到某种稳定状态。

从作用效果看,前馈网络主要是函数映射,可用于模式识别和函数逼近。

反馈网络按对能量函数的极小点的利用来分类有两种:

第一类是能量函数的所有极小点都起作用,这一类主要用作各种联想存储器;

第二类只利用全局极小点,它主要用于求解最优化问题。

2.2.3神经网络的学习方式

学习是神经网络的主要特征之一。

学习规则就是修正神经元之间连接强度或加权系数的算法,使获得的知识结构适应周围环境的变化。

在学习过程中,执行学习规则,修正加权系数。

神经网络的学习方式主要分为有导师(指导式)学习、无导师(自学式)学习和再励学习(强化学习)三种:

(l)有导师学习:

就是在学习的过程中,有一个期望的网络输出,学习算法根据给定输入的神经网络实际输出与期望输出之间的误差来调整神经元的连接强度,即权值。

因此学习需要有导师来提供期望输出信号。

(2)无导师学习:

就是在学习过程中不需要有期望输出,因而不存在直接的误差信息。

网络学习需要建立一个间接的评价函数,每个处理单元能够自适应连接权值,以对网络的某种行为趋向作出评价。

(3)再励学习:

这种学习介于上述两种情况之间,外部环境对系统输出结果只给出评价(奖或罚)而不是给出正确答案,学习系统经过强化那些受奖励的行为来改善自身性能。

2.2.4神经网络的学习规则

神经网络通常采用的网络学习规则包括以下三种:

(l)误差纠正学习规则

令是输入时神经元k在n时刻的实际输出,表示应有的输出(可由训练样本给出),则误差信号可写为:

误差纠正学习的最终目的是使某一基于的目标函数达到要求,以使网络中每一输出单元的实际输出在某种统计意义上逼近应有输出。

一旦选定了目标函数形式,误差纠正学习就变成了一个典型的最优化问题,最常用的目标函数是均方误差判据,定义为误差平方和的均值:

其中E为期望算子。

上式的前提是被学习的过程是平稳的,具体方法可用最优梯度下降法

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 小学教育 > 小学作文

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1