人工神经网络复习题Word文档格式.docx
《人工神经网络复习题Word文档格式.docx》由会员分享,可在线阅读,更多相关《人工神经网络复习题Word文档格式.docx(13页珍藏版)》请在冰豆网上搜索。
(1)、信息分布存储和容错性。
(2)、大规模并行协同处理。
(3)、自学习、自组织和自适应。
(4)、人工神经元网络是大量的神经元的集体行为,表现为复杂的非线性动力学特性。
(5)人式神经元网络具有不适合高精度计算、学习算法和网络设计没有统一标准等局限性。
2、单个神经元的动作特征有哪些?
单个神经元的动作特征有:
(1)、空间相加性;
(2)、时间相加性;
(3)、阈值作用;
(4)、不应期;
(5)、可塑性;
(6)疲劳。
3、怎样描述动力学系统?
对于离散时间系统,用一组一阶差分方程来描述:
X(t+1)=F[X(t)];
对于连续时间系统,用一阶微分方程来描述:
dU(t)/dt=F[U(t)]。
4、F(x)与x的关系如下图,试述它们分别有几个平衡状态,是否为稳定的平衡状态?
递质与受体结合
答:
在图
(1)中,有两个平衡状态a、b,其中,在a点曲线斜率|F’(X)|>
1,为非稳定平稳状态;
在b点曲线斜率|F’(X)|<
1,为稳定平稳状态。
在图
(2)中,有一个平稳状态a,且在该点曲线斜率|F’(X)|>
1,为非稳定平稳状态。
5、对于单个神经元的离散模型,Hebb学习假设是什么,基本学习方程是什么?
对于单个神经元的离散模型,Hebb学习假设是:
只有当神经元兴奋时,与其连接的突触结合权才被强化而增大;
当两个神经元同时处于兴奋状态时,它们之间的连接权应该加强。
基本学习方程是:
6、联想形式中的自联想和异联想有何区别?
自联想指的是由某种代表事物(或该事物的主要特征或可能是部分主在特征)联想到其所表示的实际事物。
其数学模型为:
当输入X=X0+V时,输出Y=X0。
异联想指的是由某一事物(或该事物的主要特征或可能是部分主在特征)联想到与其相关的另一事物。
在映射X0→Y0下,当输入X=X0+V时,输出Y=Y0。
7、网络的稳定吸引子和吸引子的吸引域分别指什么?
当t=0时,对网络输入模式x,网络处于状态v(0),到时刻t网络达到状态v(t),若v(t)稳定,则称v(t)为网络的稳定吸引子。
吸引子的吸引域是指所有经过一定时间能够稳定在吸引子v(t)上的所有初始状态的集合。
三、论述题
1、前馈式神经元网络与反馈式神经元网络有何不同?
(1)、前馈型神经元网络取连续或离散变量,一般不考虑输出与输入在时间上的滞后效应,只表达输出与输入的映射关系。
反馈式神经元网络可以用离散变量也可以用连续取值,考虑输出与输入之间在时间上和延迟,需要用动态方程来描述系统的模型。
(2)、前馈型网络的学习主要采用误差修正法(如BP算法),计算过程一般比较慢,收敛速度也比较慢。
而反馈型网络主要采用Hebb学习规则,一般情况下计算的收敛速度很快。
反馈网络也有类似于前馈网络的应用,例如用作联想记忆或分类,而在优化计算方面的应用更能显出反馈网络的特点。
2、试述离散型Hopfield神经元网络的结构及工作原理。
(1)Hopfield神经元网络的结构如下:
1这种网络是一种单层网络,由n个单元组成。
②每个神精元既是输入单元,又是输出单元;
各节点一般选用相同的转移函数,且为符号函数,即:
③ 为网络的输入;
为网络的输出;
为网络在时刻t的状态,其中t∈{0,1,2,·
·
}为离散时间变量。
④Wij为从Ni到Nj的连接权值,Hopfield网络为对称的即有Wij=Wji。
(2)、工作原理:
①、网络经过训练后,可以认为网络处于等待工作状态,对网络给定初始输入x时,网络就处于特定的初始状态,由此初始状态开始运行,可以得到网络的下一个输出状态。
②、这个输出状态通过反馈回送到网络的输入端,作为网络下一个阶段的输入信号,这个输入信号可能与初始输入信号不同,由这个新的输入又可得到下一步的输出,如此重复。
③、如果网络是稳定的,经过若干次反馈运行后网络将会达到稳态。
④、Hopfield网络的工作过程可用下式表示:
研究生神经网络试题A卷参考答案
一、名词解释(共5题,每题5分,共计25分)
1、泛化能力
泛化能力又称推广能力,是机器学习中衡量学习机性能好坏的一个重要指标。
泛化能力主要是指经过训练得到的学习机对未来新加入的样本(即测试样本)数据进行正确预测的能力。
2、有监督学习
有监督学习又被称为有导师学习,这种学习方式需要外界存在一个“教师”,她可以对一组给定输入提供应有的输出结果,学习系统可根据已知输出与实际输出之间的差值来调节系统参数。
3、过学习
过学习(over-fitting),也叫过拟和。
在机器学习中,由于学习机器过于复杂,尽管保证了分类精度很高(经验风险很小),但由于VC维太大,所以期望风险仍然很高。
也就是说在某些情况下,训练误差最小反而可能导致对测试样本的学习性能不佳,发生了这种情况我们称学习机(比如神经网络)发生了过学习问题。
典型的过学习是多层前向网络的BP算法
4、Hebb学习规则
如果两个神经元同时兴奋(即同时被激活),则它们之间的突触连接加强。
如果用、表示神经元i和j的激活值(输出),表示两个神经元之间的连接权,则Hebb学习规则可以表示为:
,这里表示学习速率。
Hebb学习规则是人工神经网络学习的基本规则,几乎所有神经网络的学习规则都可以看作Hebb学习规则的变形。
5、自学习、自组织与自适应性
神经网络结构上的特征是处理单元的高度并行性与分布性,这种特征使神经网络在信息处理方面具有信息的分布存储与并行计算而且存储与处理一体化的特点。
而这些特点必然给神经网络带来较快的处理速度和较强的容错能力。
能力方面的特征是神经网络的自学习、自组织与自性适应性。
自适应性是指一个系统能改变自身的性能以适应环境变化的能力,它包含自学习与自组织两层含义。
自学习是指当外界环境发生变化时,经过一段时间的训练或感知,神经网络能通过自动调整网络结构参数,使得对于给定输入能产生期望的输出。
自组织是指神经系统能在外部刺激下按一定规则调整神经元之间的突触连接,逐渐构建起神经网络。
也就是说自组织神经元的学习过程,完全是一种自我学习的过程,不存在外部教师的示教。
二、问答题(共7题,每题8分,共计56分)
3、人工神经网络是模拟生物神经网络的产物,除相同点外,它们还存在哪些主要区别?
答;
1.单元上的差别对于生物神经元而言,影响突触传递信息强度的因素很多、很复杂。
如突触前微细胞的大小与多少、神经传递化学物质含量的多少、神经传递化学物质释放的速度、突触间隙的变化、树突的位置与大小等诸多因素都会对突触电位产生影响,从而影响神经元的输出脉冲响应。
而人工神经元则忽略了这些影响,输入、输出关系十分简单。
2.信息上的差别生物神经元传递的信息是脉冲,而人工神经元传递的信息是模拟电压。
3.规模与智能上的差别目前,人工神经网络的规模还远小于生物神经网络,网络中神经元的数量一般在104个以下,显然,其智能也无法与生物神经网络相比。
4、感知器神经网络存在的主要缺陷是什么?
答:
1)由于感知器的激活函数采用的是阀值函数,输出矢量只能取0或1,所以只能用它来解决简单的分类问题;
2)感知器仅能够线性地将输入矢量进行分类。
理论上已经证明,只要输人矢量是线性可分的,感知器在有限的时间内总能达到目标矢量;
3)感知器还有另外一个问题,当输入矢量中有一个数比其他数都大或小得很多时,可能导致较慢的收敛速度。
5、请比较前馈型神经网络与反馈型神经网络的异同点。
(8分)
前馈型神经网络只表达输入输出之间的映射关系,实现非线性映射;
反馈型神经网络考虑输入输出之间在时间上的延迟,需要用动态方程来描述,反馈型神经网络是一个非线性动力学系统。
(1)前馈型神经网络的学习训练主要采用BP算法,计算过程和收敛速度比较慢;
反馈型神经网络的学习主要采用Hebb规则,一般情况下计算的收敛速度很快,并且它与电子电路有明显的对应关系,使得网络易于用硬件实现。
(2)前馈型神经网络学习训练的目的是快速收敛,一般用误差函数来判定其收敛程度;
反馈型神经网络的学习目的是快速寻找到稳定点,一般用能量函数来判别是否趋于稳定点。
(3)两者都有局部极小问题。
6、BP算法的基本思想是什么,它存在哪些不足之处?
(9分)
BP算法(即反向传播法)的基本思想是:
学习过程由信号的正向传播与误差的反向传播两个过程组成。
1)正向传播:
输入样本->
输入层->
各隐层(处理)->
输出层
注1:
若输出层实际输出与期望输出(教师信号)不符,则转入2)(误差反向传播过程)
2)误差反向传播:
输出误差(某种形式)->
隐层(逐层)->
输入层
其主要目的是通过将输出误差反传,将误差分摊给各层所有单元,从而获得各层单元的误差信号,进而修正各单元的权值(其过程,是一个权值调整的过程)。
注2:
权值调整的过程,也就是网络的学习训练过程(学习也就是这么的由来,权值调整)。
虽然BP算法得到广泛的应用,但它也存在自身的限制与不足,其主要表现在于它的训练过程的不确定上。
具体说明如下:
1)易形成局部极小(属贪婪算法,局部最优)而得不到全局最优;
BP算法可以使网络权值收敛到一个解,但它并不能保证所求为误差超平面的全局最小解,很可能是一个局部极小解。
2)训练次数多使得学习效率低下,收敛速度慢(需做大量运算);
对于一些复杂的问题,BP算法可能要进行几小时甚至更长的时间的训练。
这主要是由于学习速率太小所造成的。
可采用变化的学习速率或自适应的学习速率来加以改进。
3)隐节点的选取缺乏理论支持;
4)训练时学习新样本有遗忘旧样本趋势
1、人工神经网络:
在对人脑神经网络基本认识的基础上,用数理方法从信息处理的角度对人脑神经网络进行抽象,并建立某种简化模型,就称为人工神经网络。
2、自适应:
自适应性是指一个系统能改变自身的性能以适应环境变化的能力。
3、自学习:
当外界环境发生变化时,经过一段时间的训练或感知,神经网络能通过调整网络结构参数,使得对给定输入能产生期望的输出。
4、自组织:
神经系统能在外部刺激下按一定规则调整神经元之间的突触连接,逐渐构建起神经网络,这一构建过程称为网络的自组织。
5、泛化能力:
BP网络训练后将所提取的样本对中的非线性映射关系存储在权值矩阵中,在其后的工作阶段,当向网络输入训练时未曾见过的非样本数据时,网络也能完成由输入空间向输出空间的正确映射。
6、模式:
模式是对某些感兴趣的客体的定量描述或结构描述,模式类是具有某些共同特征的模式的集合
7、分类:
分类是在类别知识等导师信号的指导下,将待识别的输入模式分配到各自的模式类中去。
8、聚类:
无导师指导的分类称为聚类,聚类的目的是将相似的模式样本划归一类,而将不相似的分离开,其结果实现了模式样本的类内相似性和类间分离性。
9、死节点:
在训练过程中,某个节点从未获胜过且远离其他