人工智能的主要内容和方法文档格式.docx

上传人:b****3 文档编号:16093551 上传时间:2022-11-19 格式:DOCX 页数:19 大小:223.31KB
下载 相关 举报
人工智能的主要内容和方法文档格式.docx_第1页
第1页 / 共19页
人工智能的主要内容和方法文档格式.docx_第2页
第2页 / 共19页
人工智能的主要内容和方法文档格式.docx_第3页
第3页 / 共19页
人工智能的主要内容和方法文档格式.docx_第4页
第4页 / 共19页
人工智能的主要内容和方法文档格式.docx_第5页
第5页 / 共19页
点击查看更多>>
下载资源
资源描述

人工智能的主要内容和方法文档格式.docx

《人工智能的主要内容和方法文档格式.docx》由会员分享,可在线阅读,更多相关《人工智能的主要内容和方法文档格式.docx(19页珍藏版)》请在冰豆网上搜索。

人工智能的主要内容和方法文档格式.docx

常识,自然为人们所关注,已提出多种方法,如非单调推理、定性推理就是从不同角度来表达常识和处理常识的。

问题求解中的自动推理是知识的使用过程,由于有多种知识表示方法,相应地有多种推理方法。

推理过程一般可分为演绎推理和非演绎推理。

谓词逻辑是演绎推理的基础。

结构化表示下的继承性能推理是非演绎性的。

由于知识处理的需要,近几年来提出了多种非演绎的推理方法,如连接机制推理、类比推理、基于示例的推理、反绎推理和受限推理等。

搜索是人工智能的一种问题求解方法,搜索策略决定着问题求解的一个推理步骤中知识被使用的优先关系。

可分为无信息导引的盲目搜索和利用经验知识导引的启发式搜索。

启发式知识常由启发式函数来表示,启发式知识利用得越充分,求解问题的搜索空间就越小。

典型的启发式搜索方法有A*、AO*算法等。

近几年搜索方法研究开始注意那些具有百万节点的超大规模的搜索问题。

机器学习是人工智能的另一重要课题。

机器学习是指在一定的知识表示意义下获取新知识的过程,按照学习机制的不同,主要有归纳学习、分析学习、连接机制学习和遗传学习等。

知识处理系统主要由知识库和推理机组成。

知识库存储系统所需要的知识,当知识量较大而又有多种表示方法时,知识的合理组织与管理是重要的。

推理机在问题求解时,规定使用知识的基本方法和策略,推理过程中为记录结果或通信需设数据库或采用黑板机制。

如果在知识库中存储的是某一领域(如医疗诊断)的专家知识,则这样的知识系统称为专家系统。

为适应复杂问题的求解需要,单一的专家系统向多主体的分布式人工智能系统发展,这时知识共享、主体间的协作、矛盾的出现和处理将是研究的关键问题。

二、AI的研究方法

既为人工智能的最终研究目标打好基础,又能创造出短期效益,这是选择人工智能研究最佳方法的标准。

尽管人工智能已经创造了一些实用系统,但这些远未达到人类的智能水平。

在过去的几十年里涌现出了大量的方法,大致可分为两大类。

第一类包括符号处理的方法。

它们基于Newell和Simon的物理符号系统的假说。

大多数被称为“经典的人工智能”均在其指导之下。

这类方法中,突出的方法是将逻辑操作应用于说明性知识库。

这种风格的人工智能运用说明语句来表达问题域的“知识”,这些语句基于或实质上等同于一阶逻辑中的语句,采用逻辑推理可推导这种知识的结果。

这种方法有许多变形,包括那些强调对逻辑语言中定义域的形式公理化的角色的变形。

当遇到“真正的问题”,这一方法需要掌握问题域的足够知识,通常就称作基于知识的方法。

在大多数符号处理方法中,对需求行为的分析和为完成这一行为所做的机器合成要经过几个阶段。

最高阶段是知识阶段,机器所需知识在这里说明。

接下来是符号阶段,知识在这里以符号组织表示(例如:

列表可用列表处理语言LISP来描述),同时在这里说明这些组织的操作。

接着,在更低级的阶段里实施符号处理。

多数符号处理采用自上而下的设计方法,从知识阶段向下到符号和实施阶段。

第二类包括所谓的“子符号”方法。

它们通常采用自下而上的方式,从最低阶段向上进行。

在最低层阶段,符号的概念就不如信号这一概念确切了。

在子符号方法中突出的方法是“Animatapproach”。

偏爱这种方式的人们指出,人的智能经过了在地球上十亿年或更长时间的进化过程,认为为了制造出真正的智能机器,我们必须沿着这些进化的步骤走。

因此,我们必须集中研究复制信号处理的能力和简单动物如昆虫的支配系统,沿着进化的阶梯向上进行。

这一方案不仅能在短期内创造实用的人造物,又能为更高级智能的建立打好坚实的基础。

第二类方法也强调符号基础。

在物理基础假说中,一个agent不采用集中式的模式而运用其不同的行为模块与环境相互作用来进行复杂的行为。

机器与环境的相互作用产生了所谓的“自然行为(emergentbehavior)”。

一个agent的功能可视作该系统与动态环境密切相互作用的自然属性。

agent本身对其行为的说明并不能解释它运行时所表现的功能;

相反,其功能很大程度上取决于环境的特性。

不仅要动态的考虑环境,而且环境的具体特征也要运用于整个系统之中。

由子符号派制造的著名样品机器包括“神经网络(Neuralnetwork)”。

根据模拟生物进化方面的进程,一些有意思的机器应运而生,包括:

Sexualcrossover、Mutation和Fitness-proportionalreproduction。

其他自下而上,含animat风格的方法是基于控制理论和动态系统地分析。

介于自上而下和自下而上之间的方法是一种“环境自动机(situatedautomata)”的方法。

Kaelbling和Rosenschein建议编写一种程序设计语言来说明agent在高水平上所要求的行为,并编写一编译程序,以从这种语言编写的程序中产生引发行为的线路。

径向基函数神经网络MATLAB仿真

一、RBF网络的工作原理

径向基函数神经网络(RadialBasisFunctionNeuralNetwork,RBF)是一种前馈神经网络,一般为三层结构,如下图:

上图所示为n—h—m结构的RBF网络,即网络具有n个输入,h个隐节点,m个输出。

其中x=(x1,x2,…,xn)T∈Rn为网络输入矢量,W∈Rn×

m为输出权矩阵,b0,…,bm为输出单元偏移,y=(y1,y2,…,ym)T为网络输出,Φi(*)为第i个隐节点的激活函数。

图中输出层节点中的∑表示输出层神经元采用线性激活函数(输出神经元也可以采用其他非线性激活函数,如Sigmoidal函数)。

RBF网络的最显著的特点是隐节点的基函数采用距离函数(如欧式距离),并使用径向基函数(如Gaussian高斯函数)作为激活函数。

径向基函数关于n维空间的一个中心点具有径向对称性,而且神经元的输入离该中心点越远,神经元的激活程度就越低。

隐节点的这个特性常被称为“局部特性”。

因此RBF网络的每个隐节点都具有一个数据中心,上图中ci就是网络中第i个隐节点的数据中心值,||*||则表示欧式范数。

径向基函数Φi(*)可以取多种形式:

1.Gaussian函数

2.Reflectedsigmoidal函数

3.逆Multiquadric函数

以上三式中的

i称为该基函数的扩展常数(Spread)或宽度。

显然

i越小,径向基函数的宽度就越小,基函数就越具有选择性。

与输出节点相连的隐层第i个隐节点的所有参数可用三元组(ci,

i,ωi)表示。

每个隐层神经元都对输入x产生一个响应

,且响应特性成径向对称(即是一个个同心圆),而神经网络的输出则是所有这些响应的加权和,因此第k个输出可表示为

由于每个神经元具有局部特性,最终整个RBF网络也呈现“局部映射”特性,即RBF网络是一种局部相应神经网络。

这意味着如果神经网络有较大的输出,必定激活了一个或多个隐节点。

二、RBF网络的聚类学习算法

RBF网络的学习算法应该解决以下问题:

结构设计,即如何确定网络隐节点数h;

确定各径向基函数的数据中心ci及扩展常数

i;

输出权值修正。

如果知道了网络的隐节点数、数据中心和扩展常数,RBF网络从输入到输出就成了一个线性方程组,此时权值学习可采用最小二乘法。

RBF网络最常用的学习算法有聚类方法、梯度训练方法及OLS优选算法。

下面将详细介绍最经典的RBF网络学习算法—聚类方法,并进行MATLAB仿真。

聚类方法的思路是先用无监督学习(用k-means算法对样本输入进行聚类)方法确定RBF网络中h个隐节点的数据中心,并根据各数据中心之间的距离确定隐节点的扩展常数,然后用有监督学习(梯度法)训练各隐节点的输出权值。

假设X1,X2,…,XN为样本输入,相应的样本输出(教师信号)为y1,y2,…,yN,网络中第j个隐节点的激活函数为Φj(*)。

k为迭代次数,第k次迭代时的聚类中心为c1(k),c2(k),…,ch(k),相应的聚类域为ω1(k),ω2(k),…,ωh(k)。

k-means聚类算法确定RBF网络数据中心ci和扩展常数

i的步骤如下:

(1)算法初始化:

选择h个不同的初始聚类中心,并令k=1。

初始聚类中心的方法很多,比如,从样本输入中随机选取,或者选择前h个样本输入,但这h个初始数据中心必须取不同值。

(2)计算所有样本输入与聚类中心的距离||Xj-ci(k)||,i=1,2,…,h,j=1,2,…,N。

(3)对样本输入Xj按最小距离原则对其进行分类:

即当i(xj)=

||Xj-ci(k)||,i=1,2,…,h时,Xj即被归为第i类,即Xj∈ωi(k)。

(4)重新计算各类的新的聚类中心:

式中,Ni为第i个聚类域ωi(k)中包含的样本数。

(5)如果ci(k+1)≠ci(k),转到步骤

(2),否则聚类结束,转到步骤(6)。

(6)根据各聚类中心之间的距离确定各隐节点的扩展常数。

隐节点的扩展常数取

i=κdi,其中di为第i个数据中心与其他最近的数据中心之间的距离,即di=

||cj-ci(k)||,κ称重叠系数。

一旦各隐节点的数据中心和扩展常数确定了,输出权矢量ω=(ω1,ω2,…,ωh)T就可以用有监督学习方法(如梯度法)训练得到,但更简洁的方法是使用最小二乘方法(LMS)直接计算。

假定当输入为Xi,i=1,2,…,N时,第j个隐节点的输出如下式所示:

则隐层输出阵为

∈RN×

h。

如果RBF网络的当前权值为ω=(ω1,ω2,…,ωh)T(待定),则对所有样本,网络输出矢量为

为逼近误差,则如果给定了教师信号y=(y1,y2,…,ym)T并确定了

,便可通过最小化下式求出网络的输出权值:

通常ω可用最小二乘法求得

式中,

的伪逆,即

三、RBF网络MATLAB仿真实例

题目:

基于聚类方法的y=sinx函数逼近

解:

RBF网络隐层采用标准Gaussian径向基函数,输出层采用线性激活函数,即f(u)=u。

数据中心和扩展常数用聚类方法得到,输出权值和偏移采用广义逆方法求解。

隐节点数(即聚类数)取10,初始聚类中心取前10个训练样本。

MATLAB程序:

functionmain()

SamNum=200;

%训练样本数

TestSamNum=201;

%测试样本数

InDim=1;

%样本输入维数

ClusterNum=10;

%隐节点(聚类样本)数

Overlap=1.0;

%隐节点重叠系数κ

%根据目标函数获得样本

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 工程科技 > 材料科学

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1