人工神经网络在认知科学的研究中的应用状况毕业论文.docx
《人工神经网络在认知科学的研究中的应用状况毕业论文.docx》由会员分享,可在线阅读,更多相关《人工神经网络在认知科学的研究中的应用状况毕业论文.docx(32页珍藏版)》请在冰豆网上搜索。
人工神经网络在认知科学的研究中的应用状况毕业论文
本科毕业设计(论文)
题目:
人工神经网络在认知科学的研究
中的应用状况的报告
毕业设计(论文)原创性声明和使用授权说明
原创性声明
本人郑重承诺:
所呈交的毕业设计(论文),是我个人在指导教师的指导下进行的研究工作及取得的成果。
尽我所知,除文中特别加以标注和致谢的地方外,不包含其他人或组织已经发表或公布过的研究成果,也不包含我为获得及其它教育机构的学位或学历而使用过的材料。
对本研究提供过帮助和做出过贡献的个人或集体,均已在文中作了明确的说明并表示了谢意。
作者签名:
日 期:
指导教师签名:
日 期:
使用授权说明
本人完全了解大学关于收集、保存、使用毕业设计(论文)的规定,即:
按照学校要求提交毕业设计(论文)的印刷本和电子版本;学校有权保存毕业设计(论文)的印刷本和电子版,并提供目录检索与阅览服务;学校可以采用影印、缩印、数字化或其它复制手段保存论文;在不以赢利为目的前提下,学校可以公布论文的部分或全部内容。
作者签名:
日 期:
学位论文原创性声明
本人郑重声明:
所呈交的论文是本人在导师的指导下独立进行研究所取得的研究成果。
除了文中特别加以标注引用的内容外,本论文不包含任何其他个人或集体已经发表或撰写的成果作品。
对本文的研究做出重要贡献的个人和集体,均已在文中以明确方式标明。
本人完全意识到本声明的法律后果由本人承担。
作者签名:
日期:
年月日
学位论文版权使用授权书
本学位论文作者完全了解学校有关保留、使用学位论文的规定,同意学校保留并向国家有关部门或机构送交论文的复印件和电子版,允许论文被查阅和借阅。
本人授权 大学可以将本学位论文的全部或部分内容编入有关数据库进行检索,可以采用影印、缩印或扫描等复制手段保存和汇编本学位论文。
涉密论文按学校规定处理。
作者签名:
日期:
年月日
导师签名:
日期:
年月日
注意事项
1.设计(论文)的内容包括:
1)封面(按教务处制定的标准封面格式制作)
2)原创性声明
3)中文摘要(300字左右)、关键词
4)外文摘要、关键词
5)目次页(附件不统一编入)
6)论文主体部分:
引言(或绪论)、正文、结论
7)参考文献
8)致谢
9)附录(对论文支持必要时)
2.论文字数要求:
理工类设计(论文)正文字数不少于1万字(不包括图纸、程序清单等),文科类论文正文字数不少于1.2万字。
3.附件包括:
任务书、开题报告、外文译文、译文原文(复印件)。
4.文字、图表要求:
1)文字通顺,语言流畅,书写字迹工整,打印字体及大小符合要求,无错别字,不准请他人代写
2)工程设计类题目的图纸,要求部分用尺规绘制,部分用计算机绘制,所有图纸应符合国家技术标准规范。
图表整洁,布局合理,文字注释必须使用工程字书写,不准用徒手画
3)毕业论文须用A4单面打印,论文50页以上的双面打印
4)图表应绘制于无格子的页面上
5)软件工程类课题应有程序清单,并提供电子文档
5.装订顺序
1)设计(论文)
2)附件:
按照任务书、开题报告、外文译文、译文原文(复印件)次序装订
摘要
人工神经网络是一种基于生物神经网络结构和机制的算法或模型。
认知科学是一种研究人类大脑处理认知信号并做出反应过程的科学。
利用对人类认知现象的了解来设计的人工神经网络具有很好的处理信息的能力,这对现实应用很有帮助。
现在,人工神经网络模拟认知科学已经成为了人工智能的重要分支。
首先简单说明了人类大脑神经元特点,生物神经元的简单组成和复杂联系构成了生物神经网络模型。
其次简述了人工智能和认知科学的历史,从古希腊哲学认知研究到现代的人工神经网络模拟认知。
接着总结了典型的人工神经网络结构,共有十五组经典神经网络模型。
然后重点论述了十个近年来关于人工神经网络模拟认知的模型,主要从模型模拟认知的优势、模型结构、模型信息处理过程和模型应用等方面阐述。
接着讲述作者总结的人工神经网络模拟认知现象的发展规律,即模型机制的完全生物性与部分生物性问题。
再接着介绍了五个关于人工智能神经网络国际会议,特别列出了会议的投稿主题。
最后,对人工神经网络模拟认知的发展趋势做预测,多学科综合和复杂性成为未来神经网络研究的方向。
关键词:
人工神经网络;认知;国际会议
Thereportthatthesituationofartificialneuralnetworkonthestudyofcognitionscienceinrecentyears
Student:
LIANGCheng-heteacher:
XUJian-yu
Abstract:
Artificialneuralnetworkwhichisbasedonthestructureandtheoryofbiologicalneuralnetworkisalgorithmandmodel.Cognitionscienceisasubjectwhichdiscussestheprocessofdisposinginformationandresponse.Artificialneuralnetworkhavethecapabilityofdealingwithinformationwhichisdesignedforunderstandbiologicalcognitionphenomenononcognitionsciencebetterthanothermodel,anditisusefultotheneedofthereality.Inrecentyears,artificialneuralnetworkmodelofcognitionsciencebecomeonebranchofartificialintelligence.
First,weintroducethatthecharacteristicsofhumanbeingofbrainneurons,whichismadeupofsimpleelementandcomplexconnection,andthehistoryoftheartificialintelligenceandcognitivesciencefromancientGreekphilosophytoartificialneuralnetworkmodelofcognitioninrecentyears.Next,wesummarizethatthetypicalstructureoftheartificialneuralnetwork,togetherfifteenneuralnetworkmodels.Then,wediscussthatthetenartificialneuralnetworkswhicharemodelofthecognitioninrecentyears,includingthemodeloftheadvantageofthemodel,thecognitivestructureofthemodel,theaspectsofinformationprocess,theuseofmodels.Theauthorsummarizethatthedevelopmentlawofartificialneuralnetwork,includingallofbiologicalmodelandthepartofbiologicalmodel.Andthenitintroducesthatfiveinternationalmeetingsofartificialintelligenceneuralnetwork,andmakealistwhichismeetingcontributetheme.Finally,thearticlesaidthatthedevelopmentoftheartificialneuralnetworkmodelofcognitive,whichwillbecomecomplexandmulti-disciplineinthefuture.
Keywords:
artificialneuralnetwork;cognition;internationalconference
目次
摘要I
Abstract:
II
1引言1
1.1基本原理1
1.2人工神经网络发展简史2
1.3文章内容3
2对神经网络发展有重要影响的神经网络模型4
3模拟认知的人工神经网络模型5
3.1模拟记忆5
3.1.1R-nets模型5
3.1.2非线性动态人工神经网络模型6
3.1.3竞争网络模型和周期联想记忆模型7
3.1.4计算机认知神经学模型9
3.2模拟注意力10
3.2.1注意运动推导模型10
3.3模拟情绪12
3.3.1DUONN模型12
3.4模拟语言12
3.4.1语法理解模型12
3.4.2数字空间模型13
3.4.3多时间周期神经网络模型14
4人工神经网络模拟认知现象现状16
5人工智能中关于人工神经网络和认知科学的国际会议17
5.1国际人工智能协会年会17
5.2神经信息处理系统年会17
5.3国际神经网络年会18
5.4国际人工智能联合会议18
5.5国际人工智能工具会议18
6未来19
7结论20
致谢21
参考文献22
附录124
1引言
1.1基本原理
现代人大脑的平均重量约为1400g,大脑内约含1000亿个神经元,每个神经元与其他神经元间有约1000个连接,大脑内总共约有1000000亿个连接。
人脑的基本组成单元是神经元,是一种特殊化学细胞。
神经元由树突与轴突组成,树突位于神经元表面,轴突周围有腱鞘。
树突与其他神经元轴突末梢相联系,构成突触。
神经元间信号传递是一种复杂的生物化学过程:
电过程。
总之,简单神经元的复杂联系构成了人类智能的物质基础。
人的智能涉及许多领域,包括感知和认知,语言能力及视觉功能,记忆,学习与知识预测,自适应和鲁邦性,创新和发明,行动和动作,优化,计划、判断和决定,博弈与对策,深层智能因素(意识,感情,意志,注意力,直觉,理解)[1]。
其中认知的研究,是本文讨论的重点[1]。
人工神经网络简称作神经网络,他是一种基于生物神经网络的功能和结构的数学模型或计算模型。
神经网络由人工神经元组成,神经元间相互连接构成了神经网络系统。
大多数情况下,人工神经网络是自适应系统,在学习期间,他能通过观察流过网络的外部或内部信息来变换他的结构,以适应信息加工的变化。
现代神经网络是非线性统计数据模型工具,他们通常是在输入和输出关系复杂的模式或查询数据中得到应用。
认知科学是一个交叉性学科,其研究思维和思维过程,探索什么是认知、认知做什么、怎么工作。
其研究主要是在人类的智力和行为上,特别是人类的神经系统。
在神经系统中信息怎样表述、怎样产生、怎样转换,是认知科学的研究课题。
认知科学涉及心理学、人工智能、哲学、神经科学、语言学、社会学、教育学、人类学,其分析层次既有低水平学习和机械式决定又有高水平逻辑和计划,不仅关注神经元的连接而且关注大脑分子组织。
在研究人类认知能力中,利用人工神经网络模型来模拟认知能力是一种重要的研究方法。
模拟认知利用的是现有已知的认知运行机制,虽然这些机制并不完美,但通过模拟我们还是能利用其解决许多问题,甚至能透过人工神经网络模型进一步了解认知。
这类人工神经网络的模拟理论,被称为联结主义。
联结主义的原理是神经网络及神经网络间连接机制与学习算法,理论认为人的思维基元是神经元,而不是符号处理过程。
人工神经网络发展起于20世纪,认知科学研究起于古希腊哲学,而将人工神经网络用于研究认知科学则是近几十年的事。
1.2人工神经网络发展简史[2]
早期:
古希腊哲学,代表人物Descartes,DavidHume,ImmanuelKant,BenedictdeSpinoza,Nicolas,Malebranche,PierreCabanis,Leibniz,JohnLocke,这个时期的认知科学研究与现代认知科学不同,其最终发展成了心理学和哲学。
启蒙期:
1880年美国心理学家WilliamJames出版了第一部详细论述人脑结构及功能的专著《principlesofpsychology》,对与学习、联想记忆相关的基本原理做了开创性研究。
1930年代到1940年代(自动控制化时期),WarrenMcculloch和WalterPitts寻求解释:
思维的组织原则,第一次提出了人工神经网络。
1943年生物学家W.S.McCulloch和数学家W.A.Pitts发表了一篇神经网络的文章,提出了神经元的数学模型M-P模型。
1949年心理学家DonaldoldingHebb出版了名为《organizationofBehavior》的书,提出了Hebb算法的连结权值训练算法和联结主义。
1958年计算机学家FrankRosenblatt发表文章提出了三层网络特性的神经网络结构,称为“感知机”。
1940年代到1950年代,计算机理论和数字计算机的快速发展,AlanTuring和JohnvonNeumann在认知科学研究中首次运用了现代计算机理论和技术。
1959年,Noamchomsky评论B.F.Skinner的书《语言行为》。
提出了为解释语言,我们需要一个产生语法的理论,它不仅能归属内在表达,而且有潜在的顺序特征。
1960年电机工程师BernardWidrow和MarcianHoff发表了文章《AdaptiveSwitchingCircuits》实现了人工神经网络的计算机仿真和硬件电路的设计。
低潮期:
1969年M.Minsky和S.Papert评论“感知机”,认为其存在无法扩展到多层网络的问题。
1969年S.Grossberg和G.A.Carpenter提出了自适应响应理论模型。
1972年T.Kohomen提出了自组织映射(SOM)理论。
同年,J.Anderson也提出了一个相似的“交换存储器”。
1973年,ChristopherLonguet-Higgins在他的文献Lighthillreport中提到了认知科学的术语。
1980年到1983年KunihikoFukushima发表了文章《Neocognitron》,并开发了许多神经网络结构与训练算法
复兴期:
1982年JohnJ.Hopfield发表文章提出了Hopfield网络。
1987年美国电话与电报公司贝尔实验室利用Hopfield网络,仿真出耳蜗与视网膜等硬件网络。
同年G.E.Hinton和T.J.Sejnowski提出学习过程使用模拟退火技术的Blotzmann机(波尔兹曼机)。
1988年DavidE.Rumelhart和JamesL.McCelland及其领导小组发表了《ParallelDistributedProcessing》。
新时期:
1987年6月首届国际神经网络学术会议在美国加州圣地亚哥召开,而且在会上成立了国际神经网络学会(INNS)。
1989年StephenGrossberg、Teuvokohonen和ShunichiAmari主持创办了世界第一份神经网络杂志《NeuralNetwork》。
1.3文章内容
文章第二部分论述了部分对人工神经网络发展有重大影响的网络模型,然后第三部分重点介绍了近十年内十个模拟人类认知的人工神经网络模型,分别从人工神经网络模型的结构、优势和原理等方面论述。
第四部分总结了作者对近年人工神经网络模拟认知现象的发展规律。
第五部分讲述了五个国际著名的人工智能会议及投稿主题。
第六部分对人工智能特别是人工神经网络模拟认知的发展趋势进行了预测。
2对神经网络发展有重要影响的神经网络模型[2]
Perceptron(感知机)FrankRosenblatt(康奈尔大学)在1957年提出的
Adaline(自适应线性单位)和Madaline(多个Adaline的组合网络)BernardWidrow(斯坦福大学)在1960年到1962年提出的
Avakabche(雪崩网):
S.Drossberg在1967年提出
Cerellatron(小脑自动机)D.Marr麻省理工学院在1969年到1982年提出
BackPropagation(误差反传网络):
P.Werbos(哈佛大学)、DavidRumelhart(斯坦福大学)JamesMcClelland(斯坦福大学)在1979年到1990年提出
AdaptiveResonanceTheory(自适应共振理论ART)有ART1、ART2、ART3三种类型G.Carpenter和SGrossberg(波士顿大学)在1976年到1990年提出的
BrainStateinaBox(盒中脑BSB网络)JamesAnderson(布朗大学)在1977年提出
Neocognition(新认知机)Fukushima(日本广播协会)在1978年到1984年提出
Self-Organizingfeaturemap(自组织特征映射网络)TuevoKonhonen(芬兰赫尔辛基技术大学)在1980年提出
Hopfield网络JohnHopfield(加州理工大学)在1982年提出
Boltzmanmachine(波尔兹曼机)和Cauchymachine(柯西机)J.Hinton(多伦多大学)和T.Sejnowski(霍布金斯大学)在1985到1986年提出的
BidirectionalAssociativeMemory(BAM,双向联想记忆网)Baaartkosko(南加州大学)1985年到1988年提出
Counterproagation(CPN,双向传播网)RobertHecht-Nielsen在1983年提出
RadialBasisFunctions(RBF,径向基函数网络)BroomheadLowe在1988年提出
SupportVectorMachine(SVM,支持向量机)Vapnik在1992年到1988年提出
3模拟认知的人工神经网络模型
3.1模拟记忆
3.1.1R-nets模型[3]
在人类大脑中,信息是存储在大脑内神经元中的,不同神经元间不同连接强度构成了特定的信息,这些信息在大脑中被称作记忆。
生物大脑的信息存储容量和效率是现代电子计算机的许多倍,如果能模拟出大脑记忆的机制,将会给计算机存储带来深远的影响。
R-nets模型是一种模拟记忆现象的存储模型。
R-nets中有两个重要的组成部分,训练集和回忆集,其中的神经元分为兴奋神经元和抑制神经元,模型结构见图3.1.1,光滑球形是兴奋神经元,尖状球形是抑制神经元,R-nets大约有3000到75000个兴奋神经元组成。
在模型中,兴奋神经元到抑制神经元的比率和突触的数量是不等的。
R-nets神经网络的存储能力由随机选择兴奋神经元和训练突触估算出来。
网络中部分神经元被训练成训练集,训练集中半数兴奋神经元又组成回忆集。
网络可以运行100个循环,训练集的数量是持续增长的,直至训练集中每个目标组的错误数量达到目标组尺寸的10%。
在网络整体尺寸大幅增长下,回忆集的尺寸也是小幅增长的,这可以有效的存储信息。
而对于训练集而言,训练集尺寸与网络尺寸要相适应,否则会出现许多错误偏差。
训练集对网络整体相对较小时,其错误偏差主要由于神经元中存在虚假的连结,使得训练组不能连结到回忆集。
训练集对网络整体相对较大时,错误主要原因则是网络的过度训练。
由于存储空间和突触数量是线性的,使得网络间出现密集的连接。
图3.1.1R-nets模型结构
R-nets网络模型相对于传统神经网络模型的优势在于,其信息存储能力更强而且更符合生物学上神经系统的运行方式。
对于信息存储而言,网络的学习算法和回忆算法是独立于网络结构的,且不需要设定临界值也不需要对突触进行分级。
对于符合生物神经系统运行模式而言,模型表现在不仅体现了大脑的物质情况,而且提供了特别的仿生物连接矩阵。
虽然模型的生物特征可能会限制其求解更低水平的问题的能力,但是这些特征在非现实突触模拟中是有用的。
由于其符合大脑内神经元存储信息的结构,使得他可以模拟许多心理现象,如串行记忆,次级加强,再加工记忆,预测制造,不完整再加工记忆等。
他还能模拟在刺激作用下的感官反应,并能通过回忆感官反应的结果来重复运动。
他不仅能在特殊刺激下预测行为,也能在没有特殊刺激下预测行为。
3.1.2非线性动态人工神经网络模型[4]
非线性动态人工神经网络,简称为NDANN模型,他是以非线性动态系统(NDS)理论为基础的人工神经网络。
NDS是一个理论方法,其目的是有两点:
首先,他能作为一个分析数据的工具;第二,他能模拟不同领域的调查研究。
在NDS方法中,时间和变化是两个重要的变量。
对系统而言,系统随时间而产生的变化是直接与外部环境状况相互联系、相互作用的,系统和环境的相互作用对自组织和复杂行为是非常重要的,非线性动态系统(NDS)理论在微观和宏观上都能反应这些联系。
NDS理论可以应用在很多领域中,包括神经科学,感知心理学和认知科学和社会心理学,近来NDS理论已经成为了探测和理解认知现象的必要工具。
NDANN模型不仅体现了NDS的性能水平,而且可以模拟神经元活动和低水平认知现象
NDANN的结构见图3.1.2,x[0]和y[0]表示初始输入状态(刺激);t是网络的迭代数量;W和V是强度矩阵。
网络模型由两层组成,模型可以加工在一个周期中流动的双向信息。
网络成产生联想记忆和非联想记忆,也就是说,他可以进行有导师学习也可以进行无导师学习。
模型两层的大小是不同的,强度矩阵不需要作转换阵操作。
而且,网络的每一个单元都对应一个神经元种群,就好像是在生物神经网络或心理学概念上讲述的生物神经元一样。
图3.1.2非线性动态人工神经网络结构
由于当前未能全部知晓脑部记忆机制,故模拟记忆现象设计的人工神经网络只能部分模拟记忆过程,这导致模型的信息存储和处理等方面存在缺陷。
结合生物记忆机制和NDA原理的NDANN模型可以避免这一缺陷,由于他可以模拟混沌的时间空间行为,因此他也成为一个帮助弥合生物记忆和基于行为模拟的存储模型间差距的有效工具。
3.1.3竞争网络模型和周期联想记忆模型[5]
竞争网络是通过评估他们的强度空间中训练后的随机变量来进行学习的,网络最大的特点是能在学习环境出现偏差时正常的学习。
周期联系记忆(RAM)通常作为模拟不稳定原则的分析器,但是他对环境偏差很敏感。
竞争神经网络是由Rumelhart和Zipser在1986年提出的,他是一个简单的标准前馈网络,他由两层组成,分别是隐含层和输出层,见图3.1.3(a),其中的虚线箭头表示无可