人工神经网络真题精选.docx
《人工神经网络真题精选.docx》由会员分享,可在线阅读,更多相关《人工神经网络真题精选.docx(18页珍藏版)》请在冰豆网上搜索。
人工神经网络真题精选
2020年人工神经网络真题精选
[填空题]
1死节点
参考答案:
在训练过程中,某个节点从未获胜过且远离其他获胜节点,因此它们的权向量从未得到过调整。
[填空题]
2非稳定吸引子有两种状态,一是(),二是()。
参考答案:
有限环状态;混沌状态
[填空题]
3分类
参考答案:
分类是在类别知识等导师信号的指导下,将待识别的输入模式分配到各自的模式类中去。
[填空题]
4网络的稳定吸引子和吸引子的吸引域分别指什么?
参考答案:
当t=0时,对网络输入模式x,网络处于状态v(0),到时刻t网络达到状态v(t),若v(t)稳定,则称v(t)为网络的稳定吸引子。
吸引子的吸引域是指所有经过一定时间能够稳定在吸引子v(t)上的所有初始状态的集合。
[填空题]
5模式
参考答案:
模式是对某些感兴趣的客体的定量描述或结构描述,模式类是具有某些共同特征的模式的集合。
[填空题]
6感知器神经网络存在的主要缺陷是什么?
参考答案:
1)由于感知器的激活函数采用的是阀值函数,输出矢量只能取0或1,所以只能用它来解决简单的分类问题;
2)感知器仅能够线性地将输入矢量进行分类。
理论上已经证明,只要输人矢量是线性可分的,感知器在有限的时间内总能达到目标矢量;
3)感知器还有另外一个问题,当输入矢量中有一个数比其他数都大或小得很多时,可能导致较慢的收敛速度。
[填空题]
7自组织
参考答案:
神经系统能在外部刺激下按一定规则调整神经元之间的突触连接,逐渐构建起神经网络,这一构建过程称为网络的自组织。
[填空题]
8聚类
参考答案:
无导师指导的分类称为聚类,聚类的目的是将相似的模式样本划归一类,而将不相似的分离开,其结果实现了模式样本的类内相似性和类间分离性。
[填空题]
9自学习
参考答案:
当外界环境发生变化时,经过一段时间的训练或感知,神经网络能通过调整网络结构参数,使得对给定输入能产生期望的输出。
[填空题]
10对输入、输出数据进行尺度变换的主要原因是什么?
参考答案:
网络的各个输入数据常常具有不同的物理意义和不同的量纲,如某输入分量在0-1*105范围内变化,而另一输入分量则在0-1*10-5范围内变化。
尺度变换使所有分量都在1~0或1~1-之间变化,从而使网络训练一开始就给各输入分量以同等重要的地位;BP网的神经元均采用Sigmoid转移函数,变换后可防止因净输入的绝对值过大而使神经元输出饱和,继而使权值调整进入误差曲面的平坦区;Sigmoid转移函数的输出在1~0或1~1-之间,作为教师信号的期望输出数据如不进行变换处理,势必使数值大的分量绝对误差大,数值小的分量的绝对误差小,网络训练时只针对输出的总误差调整权值,其结果是在总误差中占份额小的输出分量相对误差较大,对输出分量进行尺度变换后这个问题可迎刃而解。
[填空题]
11自适应
参考答案:
自适应性是指一个系统能改变自身的性能以适应环境变化的能力。
[填空题]
12简述K-means聚类算法确定数据中心。
参考答案:
[填空题]
13人工神经网络
参考答案:
在对人脑神经网络基本认识的基础上,用数理方法从信息处理的角度对人脑神经网络进行抽象,并建立某种简化模型,就称为人工神经网络。
[填空题]
14下面给出的训练集由玩具兔和玩具熊组成。
输入样本向量的第一个分量代表 玩具的重量,第二个分量代表玩具耳朵的长度,教师信号为-1表示玩具兔,教师信号为1表示玩具熊。
(1)用matlab训练一个感知器,求解此分类问题。
(2)用输入样本对所训练的感知器进行验证。
参考答案:
输入是样本组成的2*8的矩阵,输入节点个数为2,输出由导师信号可知分为两类。
两个输入分量在几何上构成一个二维平面,输入样本可以用该平面上的一个点表示,玩具重量和长度在坐标中标出,可以看出明显分布在两个区域,可以用一条线分开分为两类,在线上方的输出结果应大于0,在线下方的输出结果应小于0。
权向量为2*9的矩阵,输入的第一个权向量权值赋予较小的非零随机数,每一个新的权向量都由上一个权向量调整,下一次循环第1个权向量由第9个权向量来调整。
对于这样的样本线性可分,经过几次调整后就稳定到一个权向量,将样本正确分类的权向量不是唯一的。
具体程序见附件二或者ganzhiqi.m。
输出分类结果如下图所示。
[填空题]
15BP算法的基本思想是什么,它存在哪些不足之处?
参考答案:
BP算法(即反向传播法)的基本思想是:
学习过程由信号的正向传播与误差的反向传播两个过程组成。
1)正向传播:
输入样本->输入层->各隐层(处理)->输出层
2)误差反向传播:
输出误差(某种形式)->隐层(逐层)->输入层 其主要目的是通过将输出误差反传,将误差分摊给各层所有单元,从而获得各层单元的误差信号,进而修正各单元的权值(其过程,是一个权值调整的过程)。
虽然BP算法得到广泛的应用,但它也存在自身的限制与不足,其主要表现在于它的训练过程的不确定上。
具体说明如下:
1)易形成局部极小(属贪婪算法,局部最优)而得不到全局最优;BP算法可以使网络权值收敛到一个解,但它并不能保证所求为误差超平面的全局最小解,很可能是一个局部极小解。
2)训练次数多使得学习效率低下,收敛速度慢(需做大量运算);对于一些复杂的问题,BP算法可能要进行几小时甚至更长的时间的训练。
这主要是由于学习速率太小所造成的。
可采用变化的学习速率或自适应的学习速率来加以改进。
3)隐节点的选取缺乏理论支持;
4)训练时学习新样本有遗忘旧样本趋势。
[填空题]
16请比较前馈型神经网络与反馈型神经网络的异同点。
参考答案:
前馈型神经网络只表达输入输出之间的映射关系,实现非线性映射;反馈型神经网络考虑输入输出之间在时间上的延迟,需要用动态方程来描述,反馈型神经网络是一个非线性动力学系统。
(1)前馈型神经网络的学习训练主要采用BP算法,计算过程和收敛速度比较慢;反馈型神经网络的学习主要采用Hebb规则,一般情况下计算的收敛速度很快,并且它与电子电路有明显的对应关系,使得网络易于用硬件实现。
(2)前馈型神经网络学习训练的目的是快速收敛,一般用误差函数来判定其收敛程度;反馈型神经网络的学习目的是快速寻找到稳定点,一般用能量函数来判别是否趋于稳定点。
(3)两者都有局部极小问题。
[填空题]
17试设计一个吸引子为Xa=(0110)T,Xb=(1001)T的离散Hopfield人工神经网络。
其权值和阈值在[-1,1]区间取值,试求权值和阈值。
参考答案:
吸引子的分布是由网络的权值(包括阈值)决定的,设计吸引子的核心就是如何设计一组合适的权值。
为了使所设计的权值满足要求,权值矩阵应符合以下要求:
1.为保证异步方式工作时网络收敛,W应为对称阵。
2.为保证同步方式工作时网络收敛,W应为非负定对称阵。
3.保证给定的样本是网络的吸引子,并且要有一定的吸引域。
具体设计时,这里采用了联立方程法:
[填空题]
18人工神经网络是模拟生物神经网络的产物,除相同点外,它们还存在哪些主要区别?
参考答案:
1.单元上的差别。
对于生物神经元而言,影响突触传递信息强度的因素很多、很复杂。
如突触前微细胞的大小与多少、神经传递化学物质含量的多少、神经传递化学物质释放的速度、突触间隙的变化、树突的位置与大小等诸多因素都会对突触电位产生影响,从而影响神经元的输出脉冲响应。
而人工神经元则忽略了这些影响,输入、输出关系十分简单。
2.信息上的差别。
生物神经元传递的信息是脉冲,而人工神经元传递的信息是模拟电压。
3.规模与智能上的差别。
目前,人工神经网络的规模还远小于生物神经网络,网络中神经元的数量一般在104个以下,显然,其智能也无法与生物神经网络相比。
[填空题]
19设计一个神经网络对图中的三类线性不可分模式进行分类,期望输出向量分别用(1,-1,-1)T、(-1,1,-1)T、(-1,-1,1)T代表三类,输入用样本坐标。
要求:
(1)选择合适的隐节点数;
(2)用BP算法训练网络,对图中的9个样本进行正确分类。
参考答案:
[填空题]
20什么是自学习、自组织与自适应性?
参考答案:
神经网络结构上的特征是处理单元的高度并行性与分布性,这种特征使神经网络在信息处理方面具有信息的分布存储与并行计算而且存储与处理一体化的特点。
而这些特点必然给神经网络带来较快的处理速度和较强的容错能力。
能力方面的特征是神经网络的自学习、自组织与自性适应性。
自适应性是指一个系统能改变自身的性能以适应环境变化的能力,它包含自学习与自组织两层含义。
自学习是指当外界环境发生变化时,经过一段时间的训练或感知,神经网络能通过自动调整网络结构参数,使得对于给定输入能产生期望的输出。
自组织是指神经系统能在外部刺激下按一定规则调整神经元之间的突触连接,逐渐构建起神经网络。
也就是说自组织神经元的学习过程,完全是一种自我学习的过程,不存在外部教师的示教。
[填空题]
21什么是LVQ网络?
它与SOM网络有什么区别和联系?
参考答案:
(1)学习向量量化(LVQ)网络是在竞争网络结构的基础上提出的,LVQ将竞争学习思想和监督学习算法相结合,减少计算量和储存量,其特点是网络的输出层采用监督学习算法而隐层采用竞争学习策略,结构是由输入层、竞争层、输出层组成。
(2)在LVQ网络学习过程中通过教师信号对输入样本的分配类别进行规定,从而克服了自组织网络采用无监督学习算法带来的缺乏分类信息的弱点。
自组织映射可以起到聚类的作用,但还不能直接分类和识别,因此这只是自适应解决模式分类问题中的第一步,第二步是学习向量量化,采用有监督方法,在训练中加入教师信号作为分类信息对权值进行细调,并对输出神经元预先指定其类别。
更多内容请访问《睦霖题库》微信公众号
[填空题]
22什么是Hebb学习规则?
参考答案:
[填空题]
23什么是BP网络的泛化能力?
如何保证BP网络具有较好的泛化能力?
参考答案:
(1)BP网络训练后将所提取的样本对中的非线性映射关系存储在权值矩阵中,在其后的工作阶段,当向网络输入训练时未曾见过的非样本数据时,网络也能完成由输入空间向输出空间的正确映射。
这种能力称为多层感知器的泛化能力,它是衡量多层感知器性能优劣的一个重要方面。
(2)网络的性能好坏主要看其是否具有很好的泛化能力,而对泛化能力的测试不能用训练集的数据进行,要用训练集以外的测试数据来进行检验。
在隐节点数一定的情况下,为获得更好的泛化能力,存在着一个最佳训练次数t0,训练时将训练与测试交替进行,每训练一次记录一训练均方误差,然后保持网络权值不变,用测试数据正向运行网络,记录测试均方误差,利用两种误差数据得出两条均方误差随训练次数变化的曲线,测试、训练数据均方误差曲线如下图所示。
训练次数t0称为最佳训练次数,当超过这个训练次数后,训练误差次数减小而测试误差则开始上升,在此之前停止训练称为训练不足,在此之后称为训练过度。
[填空题]
24过学习
参考答案:
过学习(over-fitting),也叫过拟和。
在机器学习中,由于学习机器过于复杂,尽管保证了分类精度很高(经验风险很小),但由于VC维太大,所以期望风险仍然很高。
[填空题]
25结合cover定理,从模式可分性观点论述RBF处理线性不可分问题的原理。
参考答案:
(1)cover定理。
将复杂的模式分类问题非线性的投射到高维空间比投射到低维空间更可能是线性可分的。
[填空题]
26有监督学习
参考答案:
有监督学习又被称为有导师学习,这种学习方式需要外界存在一个“教师”,她可以对一组给定输入提供应有的输出结果,学习系统可根据已知输出与实际输出之间的差值来调节系统参数。
[填空题]
27简述SOM神经网络学习算法。
参考答案:
[填空题]
28泛化能力
参考答案:
泛化能力又称推广能力,是机器学习中衡量学习机性能好坏的一个重要指标。
[填空题]
29BP算法的误差曲线存在平坦区,利用图形、相关公式说明造成平坦区的原因、平坦区造成的问题、如何改进进而快速度过平坦区。
参考答案:
造成平坦区的原因:
造成这种情况的原因与各节点的净输入过大有关。
平坦区造成的问题:
会使训练次数大大增加,从而影响了收敛速度。
改进:
自适应调节学习率、引入陡度因子。
[填空题]
30试述离散型Hopfield神经元网络的结构及工作原理。
参考答案:
(1)Hopfield神经元网络的结构如下:
①这种网络是一种单层网络,由n个单元组成。
②每个神精元既是输入单元,又是输出单元;各节点一般选用相
[填空题]
31支持向量机的基本思想/方法是什么?
参考答案:
支持向量机的主要思想是建立一个最优决策超平面,使得该平面两侧距平面最近的两类样本之间的距离最大化,从而对分类问题提供良好的泛化能力。
对于非线性可分模式分类问题,根据Cover定理:
将复杂的模式分类问题非线性的投射到高维特征空间可能是线性可分
的,因此只要变换是非线性的且特征空间的维数足够高,则原始模式空间能变换为一个新的高维特征空间,使得在特征空间中模式以较高的概率为线性可分的。
此时,应用支持向量机算法在特征空间建立分类超平面,即可解决非线性可分的模式识别问题。
[填空题]
32前馈式神经元网络与反馈式神经元网络有何不同?
参考答案:
(1)前馈型神经元网络取连续或离散变量,一般不考虑输出与输入在时间上的滞后效应,只表达输出与输入的映射关系。
反馈式神经元网络可以用离散变量也可以用连续取值,考虑输出与输入之间在时间上和延迟,需要用动态方程来描述系统的模型。
(2)前馈型网络的学习主要采用误差修正法(如BP算法),计算过程一般比较慢,收敛速度也比较慢。
而反馈型网络主要采用Hebb学习规则,一般情况下计算的收敛速度很快。
反馈网络也有类似于前馈网络的应用,例如用作联想记忆或分类,而在优化计算方面的应用更能显出反馈网络的特点。
[填空题]
33简述BP网络与RBF网络的不同。
参考答案:
①RBF网络只有一个隐层,而BP网络的隐层可以是一层也可以是多层的。
②BP网络的隐层和输出层其神经元模型是一样的;而RBF网络的隐层神经元和输出层神经元不仅模型不同,而且在网络中起到的作用也不一样。
③RBF网络的隐层是非线性的,输出层是线性的。
然而,当用BP网络解决模式分类问题时,它的隐层和输出层通常选为非线性的。
当用BP网络解决非线性回归问题时,通常选择线性输出层。
④RBF网络的基函数计算的是输入向量和中心的欧氏距离,而BP网络隐单元的激励函数计算的是输入单元和连接权值间的内积。
⑤RBF网络使用局部指数衰减的非线性函数(如高斯函数)对非线性输入输出映射进行局部逼近。
BP网络的隐节点采用输入模式与权向量的内积作为激活函数的自变量,而激活函数则采用Sigmoid函数或硬限幅函数,因此BP网络是对非线性映射的全局逼近。
RBF网络最显著的特点是隐节点采用输入模式与中心向量的距离(如欧式距离)作为函数的自变量,并用径向基函数(如Gauss函数)作为激活函数。
径向基函数关于N维空间的的一个中心点具有径向对称性,而且神经元的输入离该中心越远,神经元的激活程度就越低。
隐层节点的这个特性常被称为“局部特性”。
[填空题]
34联想形式中的自联想和异联想有何区别?
参考答案:
自联想指的是由某种代表事物(或该事物的主要特征或可能是部分主在特征)联想到其所表示的实际事物。
其数学模型为:
当输入X=X0+V时,输出Y=X0。
异联想指的是由某一事物(或该事物的主要特征或可能是部分主在特征)联想到与其相关的另一事物。
其数学模型为:
在映射X0→Y0下,当输入X=X0+V时,输出Y=Y0。
[填空题]
35简述正则化RBF网络与广义RBF网络的不同。
参考答案:
①径向基函数的个数M与样本的个数P不相等,且M常常远小于P。
②径向基函数的中心不再限制在数据点上,而是由训练算法确定。
③各径向基函数的扩展常数不再统一,其值由训练算法确定。
④输出函数的线性中包含阈值参数,用于补偿基函数在样本集上的平均值与目标值之间的差别。
[填空题]
36对于单个神经元的离散模型,Hebb学习假设是什么,基本学习方程是什么?
参考答案:
对于单个神经元的离散模型,Hebb学习假设是:
只有当神经元兴奋时,与其连接的突触结合权才被强化而增大;当两个神经元同时处于兴奋状态时,它们之间的连接权应该加强。
[填空题]
37简述SOM网的局限性。
参考答案:
①隐层神经元数目难以确定,因此隐层神经元往往未能充分利用,某些距离学习向量远的神经元不能获胜,从而成为死节点;
②聚类网络的学习速率需要人为确定,学习终止往往需要人为控制,影响学习进度;
③隐层的聚类结果与初始权值有关。
[填空题]
38F(x)与x的关系如下图,试述它们分别有几个平衡状态,是否为稳定的平衡状态?
参考答案:
[填空题]
39SOM网权值初始化的原则和一般方法有哪些?
参考答案:
SOM网的权值一般初始化为较小的随机数,这样做的目的是使权向量充分分散在样本空间。
但在某些应用中,样本整体上相对集中于高维空间的某个局部区域,权向量的初始位置却随机的分散于样本空间的广阔区域,训练时必然是离整个样本群最近的权向量被不断调整,并逐渐进入全体样本的中心位置,而其他权向量因初始位置远离样本群而永远得不到调整。
如此训练的结果可能使全部样本聚为一类。
解决这类问题的思路是尽量使权值的初始位置与输入样本的大致分布区域充分重合。
根据上述思路,一中简单易行的方法是从训练集中
[填空题]
40怎样描述动力学系统?
参考答案:
对于离散时间系统,用一组一阶差分方程来描述:
X(t+1)=F[X(t)];
对于连续时间系统,用一阶微分方程来描述:
dU(t)/dt=F[U(t)]。
[填空题]
41简述BP网络初始值的设计的原则和方法?
参考答案:
原则:
使每个神经元一开始都工作在其转移函数变化最大的位置。
方法:
①使初始权值足够小;②使初始值为+1和-1的权值数相等。
应用中对隐层权值可采用第一种方法,而对输出层可采用第二种办法。
[填空题]
42单个神经元的动作特征有哪些?
参考答案:
单个神经元的动作特征有:
(1)空间相加性;
(2)时间相加性;
(3)阈值作用;
(4)不应期;
(5)可塑性;
(6)疲劳。
[填空题]
43简述BP算法的缺陷及改进方案。
参考答案:
①易形成局部极小而得不到全局最优;
②训练次数多,使得学习效率低,收敛速度慢;
③隐节点的选取缺乏理论指导;
④训练时学习新样本有遗忘旧样本的趋势。
改进方案:
1、增加动量项
2、自适应调节学习率
3、引入陡度因子
[填空题]
44简述人工神经元网络的特点?
参考答案:
(1)信息分布存储和容错性。
(2)大规模并行协同处理。
(3)自学习、自组织和自适应。
(4)人工神经元网络是大量的神经元的集体行为,表现为复杂的非线性动力学特性。
(5)人式神经元网络具有不适合高精度计算、学习算法和网络设计没有统一标准等局限性。
[填空题]
45BP网络的主要能力是什么?
参考答案:
1、非线性映射能力
2、泛化能力
3、容错能力
[填空题]
46明距离指()。
参考答案:
两个向量中对应元素不同的个数
[填空题]
47简述人脑信息传递过程。
参考答案:
[填空题]
48神经元分()神经元和()神经元。
参考答案:
兴奋性;抑制性
[填空题]
49简述人脑神经元的基本结构与功能。
参考答案:
神经元在结构上由细胞体、树突、轴突和突触四部分组成
功能:
细胞体:
处理信息的功能;树突:
输入信息;轴突:
输出信息;突触:
传递信息的节点。
[填空题]
50存储容量指网络稳定点的个数,提高存储容量的途径一是(),二是()。
参考答案:
改进网络的拓扑结构;改进学习方法
[填空题]
51简述神经网络的基本特征。
参考答案:
结构上的特征是处理单元的高度并行性与分布性,这种特征使神经网络在信息处理方面具有信息的分布存储与并行计算、存储与处理一体化的特点。
而这些特点必然给神经网络带来较快的处理速度和较强的容错能力。
能力方面的特征是神经网络的自学习、自组织和自适应性。
自适应性是指一个系统能改变自身的性能以适应环境变化的能力,它包含自学习和自组织两层含义。
自学习是指当外界环境发生变化时,经过一段时间的训练或感知,神经网络能通过调整网络结构参数,使得对给定输入能产生期望的输出。
自组织是指神经系统能在外部刺激下按一定规则调整神经元之间的突触连接,逐渐构建起神经网络。
[填空题]
52联想的形式有两种,它们分是()和()。
参考答案:
自联想;异联想
[填空题]
53简述人工神经网络发展阶段及标志。
参考答案:
可分为四个时期:
启蒙时期开始于1890年W.James关于人脑结构与功能的研究,结束于1969年Minsky和Papert出版的《感知器》一书;低潮时期开始于1969年,结束于1982年Hopfield发表的著名的文章《神经网络和物理系统》;复兴时期开始于J.J.Hopfield的突破性研究论文,结束与1986年D.E.Rumelhart和J.L.McClelland领导的研究小组编写出版的《并行分布式处理》一书。
高潮时期以1987年首届国际神经网络学术会议为开端,迅速在全世界范围内掀起人工神经网络的研究应用热潮。
[填空题]
54网络稳定性指从()开始,到t时刻后v(t+△t)=v(t),(t>0),称网络稳定。
参考答案:
t=0时刻初态
[填空题]
55网络吸引子
参考答案:
若网络的状态X=f(WX-T),则成称X为网络的吸引子。
[填空题]
56神经网络研究的发展大致经过了()个阶段。
参考答案:
四
[填空题]
57神经网络按结构可分为()和(),按性能可分为离散型和连续型,按学习方式可分为()和()。
参考答案:
前馈网络;反馈网络;有导师;无导师
[填空题]
58神经网络的基本特性有()、()和()。
参考答案:
拓扑性;学习性;稳定收敛性
[填空题]
59从系统的观点讲,人工神经元网络是由大量神经元通过极其丰富和完善的连接而构成的()、()、()系统。
参考答案:
自适应;非线性;动力学