游戏人工智能期末复习资料文档格式.docx

上传人:b****7 文档编号:22184917 上传时间:2023-02-02 格式:DOCX 页数:17 大小:427.72KB
下载 相关 举报
游戏人工智能期末复习资料文档格式.docx_第1页
第1页 / 共17页
游戏人工智能期末复习资料文档格式.docx_第2页
第2页 / 共17页
游戏人工智能期末复习资料文档格式.docx_第3页
第3页 / 共17页
游戏人工智能期末复习资料文档格式.docx_第4页
第4页 / 共17页
游戏人工智能期末复习资料文档格式.docx_第5页
第5页 / 共17页
点击查看更多>>
下载资源
资源描述

游戏人工智能期末复习资料文档格式.docx

《游戏人工智能期末复习资料文档格式.docx》由会员分享,可在线阅读,更多相关《游戏人工智能期末复习资料文档格式.docx(17页珍藏版)》请在冰豆网上搜索。

游戏人工智能期末复习资料文档格式.docx

Event:

对系统重要的某件事情被称为事件。

事件是有生命的,它经历:

  1).被产生(被接受,等待被处理,一般放入事件队列)

  2).被分发(从事件队列取出,分发到响应的状态机处理)

  3).死亡(当状态机处理了该事件,它随之死亡)

从一个状态切换到另外一个状态被称为状态转换,而引起它的事件称为触发事件.(可以看到,不是所有的事件都会引起状态的转换).提到状态转换,不能不提及检测器(Guards),只有当检测器的值为TRUE时候,才能启动转换。

第10章模糊逻辑。

模糊逻辑的含义是让计算机以一种接近人类行为的方式解决问题。

模糊逻辑的本质是一切都和程度有关。

模糊逻辑避开了传统布尔逻辑的非真即假的特性,采用“程度”来衡量。

模糊流程步骤:

模糊化、通过模糊规则产生模糊输出、反模糊化。

模糊化:

把明确数据(crispdata)转化为模糊数据,即在预定的模糊集合中寻找明确数据的归属程度(degreeofmembership)。

归属函数:

归属函数的作用是把输入的变量对应到模糊集合中某个介于0和1之间的值,求出归属程度。

所需的归属度函数的形式常由精确度、考虑问题的性质、经验、是否容易实现以及其他因素决定。

1.

2.

3.

藩篱函数:

藩篱函数的作用是对归属度函数返回的归属度进行修改,并其提供其他语汇素材,可以在它逻辑运算中结合使用。

它可以有效地改变归属度函数的形状。

常用的藩篱函数:

VERY(),NOT_VERY()

其中Truth(A)指A在模糊集合中的归属程度。

模糊规则:

将输入变量模糊化后,要构建一组规则,以某种逻辑方式结合模糊数据构成前件(前提,antecedent),生成某些模糊结论(后件,consequent),即某些预定模糊集合中的归属度。

模糊公理:

交集(Conjunction)

Truth(AorB)=MAX(Truth(A),Truth(B))

联集(Disjunction)

Truth(AandB)=MIN(Truth(A),Truth(B))

补集(Negation)

Truth(NOTA)=1-Truth(A)

以上定义可以根据具体应用的情况更改。

例如将AND定义为两个归属度的积等。

反模糊化:

反模糊化将模糊结论转化为精确数值输出。

常用的方法:

寻找输出模糊集合所占面积的几何中心,并以该中心的水平坐标值作为精确输出值,即输出所有归属程度的加权平均值。

实现的手段:

用数值积分算出曲线围成的面积,或想象成多边形,然后用几何方法找出中心

单值输出归属度函数(singletonoutputmembershipfunction),即用事先已经反模糊化好的输出函数,计算所有输出值聚合起来的结果。

假设μ是某输出集合为真的程度,而x为与此输出集合相关的精确单值,则最后聚合而反模糊化的输出结果是:

第11章规则式AI

把一组产生式放在一起,让它们互相配合,协同作用,一个产生式生成的结论可以供另一个产生式作为前提使用,以这种方式求得问题的解决,这就叫规则(产生式)系统(ProductionSystem)。

产生式系统也可以算作是一种演绎系统。

规则系统最简单的形式由一连串的if-then规则组成,用来做推论或行动决策。

实际上有限状态机和模糊状态机都是一种规则系统。

规则系统有两个主要部分:

工作记忆(workingmemory)和规则记忆(rulememory)

工作记忆存储已知的事实,以及由规则所做的断言;

规则记忆(简称规则)则含有if-then形式的规则,能够以储存在工作记忆里的事实运行。

当规则被触发(启动,fire),则这些规则就能触发某些行动,或引起状态改变。

这些规则也能修改工作记忆的内容,即新增“断言”(assertion)的信息。

人工智能产生式系统组成:

一个综合数据库(GlobleDatabase)(数据基)

一组产生式规则(SetofRules)(规则库)

一个控制系统(规则解释器)。

1、正向产生式系统(ForwardProductionSystem)和正向推理

正向产生式系统是从初始状态出发,朝着目标状态方向来使用规则,即正推的方式工作的,我们称这些规则为F规则。

2、逆向产生式系统(BackwardProductionSystem)和逆向推理

逆向产生式系统是选取目标状态描述作为初始综合数据库,逆向进行求解,即系统从目标状态出发,朝着初始状态方向来使用规则,产生子目标状态,反向朝着初始状态求解,即递推的方式工作的,我们称这些规则为B规则。

演绎法:

三个步骤

1.把规则和储存在工作记忆里的事实配对,做法是检查每条规则的if部分,是否和工作记忆里的某组事实和断言吻合。

2.冲突解决(conflictresolution),检查所有吻合的规则,按照某种方式找出想要启动的规则。

FirstBestAllRandom

3.当某种规则被选取后,启动该规则,即执行其then部分。

上述三个步骤执行后,该过程会一直重复,直到没有规则可以启动为止。

归纳法:

与演绎法刚好相反。

不是把规则的if部分来和工作记忆配对,而是把then部分配对。

即有某种结果或目标,然后试着找出某条规则应该启动,才能达到该结果或目标。

正向推理方法也称为“数据驱动方法”、“自底向上”或“正向键”。

数据驱动方法的优点是简单明了且能求出所有的解。

反向推理方法也称为“目标驱动方法”、“自顶向下”或“反向链”。

第12章概率概论

标准概率

标准概率指的是事件和可能性发生的概率或可能的结果。

给定一个事件E,在总数为N的可能结果中,会发生n种结果,则此事件发生的概率p为:

p=P(E)=n/N

客观概率

P(E)=n/N其中N→∞

主观概率:

根据主观判断得到的概率,很难量化。

赔率

期望值

概率规则:

规则1:

0<

=P(A)<

=1

规则2:

如果S代表整个样本空间。

则S的概率为1

规则3:

如果事件A发生的概率是P(A),而A不会发生的事件记为A’,则P(A’)=1-P(A)

规则4:

如果事件A、B互斥,则

P(AUB)=P(A)+P(B)

规则5:

如果事件A、B不互斥,则

P(AUB)=P(A)+P(B)-P(A∩B)

规则6:

如果事件A和B是独立的,则事件A和B都发生的概率是:

P(A∩B)=P(A)P(B)

条件概率:

当事件不独立时,如果事件A依赖于事件B发生,我们把B发生后,A发生的概率写为P(A|B);

反之写为P(B|A)。

A和B同时发生的概率为P(A∩B)=P(A)P(B|A)

故P(B|A)=P(A∩B)/P(A)

贝叶斯规则:

P(B|A)=P(B)P(A|B)/P(A)

第13章贝叶斯技术

贝叶斯网络(Bayesiannetwork,置信网络,信度网络)是一种概率网络,它是基于概率推理的图形化网络,而贝叶斯公式则是这个概率网络的基础。

所谓概率推理就是通过一些变量的信息来获取其他的概率信息的过程。

适用于表达和分析不确定性和概率性的事件,应用于有条件地依赖多种控制因素的决策,可以从不完全、不精确或不确定的知识或信息中做出推理。

贝叶斯网络的优越性

对已有的信息要求低,可以进行信息不完全、不确定情况下的推理

具有良好的可理解性和逻辑性

专家知识和试验数据的有效结合相辅相成,忽略次要联系而突出主要矛盾,可以有效避免过学习

推理结果说服力强,贝叶斯网络对先验概率的要求大大降低

贝叶斯决策理论方法是统计模型决策中的一个基本方法,其基本思想是:

1、已知条件概率密度参数表达式和先验概率。

2、利用贝叶斯公式转换成后验概率。

3、根据后验概率大小进行决策分类。

先验概率、后验概率和条件概率

先验概率:

根据历史的资料或主观判断所确定的各种时间发生的概率

后验概率:

通过贝叶斯公式,结合调查等方式获取了新的附加信息,对先验概率修正后得到的更符合实际的概率

某事件发生后该事件的发生概率

条件概率公式:

P(B|A)=P(B)P(A|B)/P(A)

其中,P(A|B)表示“在发生事件B的前提下,A事件发生的概率”。

贝叶斯网络的组成和结构

贝叶斯网络是描述随机变量(事件)之间依赖关系的一种图形模式,是一种用来进行推理的模型

贝叶斯网络由网络结构和条件概率表两部分组成。

网络结构是一个有向无环图(DirectedAcyclicGraph,DAG),由代表变量节点及连接这些节点有向边构成。

节点代表随机变量,节点间的有向边代表了节点间的互相关系(由父节点指向其子节点),用条件概率表达关系强度,没有父节点的用先验概率进行信息表达。

节点变量可以是任何问题的抽象,如:

测试值,观测现象,意见征询等。

贝叶斯网络的推论:

1).因果链(causalchain)

2)共通成因网络(commoncausenetwork,简式贝叶斯网络,naiveBayesiannetwork,贝叶斯分类器,Bayesianclassifier)

3)诊断推理(diagnosticreasoning,归纳):

已知A引起B,如果知道B的值,则可以计算得到A的概率。

4)共通结果网络(commoneffectnetwork)

5)解释消除(explainingaway,解释过去,交互因果推理):

已知A和B引起C,如果知道C的值,则可以计算A的改变对B概率的影响。

d-分割:

定理(整体马尔科夫性)设X和Y为贝叶斯网N中的两个变量,Z为N中一个不包含X和Y的节点集合。

如果Zd-分割X和Y,那么X和Y在给定Z时条件独立,即

 

d-分割是图论的概念,而条件独立是概率论的概念,所以定理揭示了贝叶斯网络图论侧面和概率论侧面之间的关系。

第14章神经网络

神经网络结构

在结构上,可以把一个神经网络划分为输入层(input)、输出层(output)和隐含层(hidden)。

输入层的每个节点对应一个个的预测变量。

输出层的节点对应目标变量,可有多个。

在输入层和输出层之间是隐含层(对神经网络使用者来说不可见),隐含层的层数和每层节点的个数决定了神经网络的复杂度。

前馈神经网络

前向传播:

数据从输入到输出的过程是一个从前向后的传播过程,后一节点的值通过它前面相连的节点传过来,然后把值按照各个连接权重的大小加权输入活化函数再得到新的值,进一步传播到下一个节点。

回馈:

当节点的输出值与预期的值不同,也就是发生错误时,神经网络就要“学习”(从错误中学习)。

可以把节点间连接的权重看成后一节点对前一节点的“信任”程度(向下一节点的输出更容易受前面那个节点输入的影响)。

学习的方法是采用惩罚的方法

权重

权重会影响特定输入数据的强度。

它决定神经网络的行为。

训练神经网络的目的就是求出每个神经元与另一个神经元相连时匹配的权重。

神经元的输入值就是每个输入值与该神经元相连的权重乘以自身的输入值的总和再加上偏差值。

活化函数

活化函数接收神经元的总输入值,进行处理,产生神经元的输出值。

基本上活化函数是非线性的。

logistic函数(S型函数(sigmoidfunction))

阶跃函数(stepfunction)

双曲正切函数(hyperbolictangentfunction)

线性活化函数(linearactivationfunction)

偏差项

偏差项是把总输入值沿活化函数的水平轴移动,有效改变神经元活化的阈值。

偏差值总是设为1或-1,其权重经由训练调整。

隐匿层

决定神经网络拓扑结构(或体系结构)的是隐含层及其所含节点的个数,以及节点之间的连接方式。

要从头开始设计一个神经网络,必须要决定隐含层和节点的数目,活化函数的形式,以及对权重做哪些限制等。

每个输出神经元都和某个隐匿神经元连接在一起,每个隐匿神经元都会把输出传到某个输出层的神经元。

隐匿层神经元越多,神经网络能处理的特征就越多。

一般来说,隐匿神经元的数量要用试误法确定。

如果三层神经网络不是用于自动联想,隐匿层神经元的数量大约等于输入和输出神经元数量乘积的平方根,是比较适当的。

训练

训练的目标是找出连接所有神经元之值的权重,让输入层可以产生所需的输出值。

指导训练(supervisedtraining)和无指导训练(unsupervisedtraining)

倒传递法、计算误差、调整权重、动量

监督式学习网络(SupervisedLearningNetwork),在学习训练中需要给网络成对的提供一个输入模式,和一个期望网络正确输出的模式,成为“教师信号”。

将神经网络的实际输出,

同期望输出进行比较,当网络的输出与期望的教师信号不符时,根据差错的方向和大小,按一定的规则调整权值,以示下一步网络的输出更接近期望结果

无监督式学习网络(UnsupervisedLearningNetwork)是网络能根据特有的动态信息和规则,在输入信息流中发现任何可能存在的模式喝个例,同时根据网络的功能和输入信息调整权值,这过程称为网络的自组织,其结果使网络能对是同一类的模式自动分类。

灌输式学习网络灌输式是使将网络设计成能记忆特殊例子以后当给定该例子的特定的信息,例子就能被回忆起来。

每个权重校正值公式:

第15章遗传算法

遗传算法(GeneticAlgorithm)是模拟达尔文生物进化论的自然选择和遗传学机理的生物进化过程的计算模型,是一种通过模拟自然进化过程搜索最优解的方法。

基本概念

交叉概率(pc,probabilityofperformingcrossover):

控制着交叉算子的使用频率。

交叉操作可以加快收敛,使解达到最有希望的最优解区域,因此一般取较大的交叉概率,但交叉概率太高也可能导致过早收敛。

变异概率(pm,probabilityofmutation):

控制着变异算子的使用频率。

中止条件(terminationcriteria)

简单说来就是:

繁殖过程,会发生基因交叉(Crossover),基因突变(Mutation),适应度(Fitness)低的个体会被逐步淘汰,而适应度高的个体会越来越多。

那么经过N代的自然选择后,保存下来的个体都是适应度很高的,其中很可能包含史上产生的适应度最高的那个个体。

遗传算法机理

选择一些染色体来产生下一代。

一种常用的选择策略是“比例选择”,也就是个体被选中的概率与其适应度函数值成正比。

假设群体的个体总数是M,那么那么一个个体Xi被选中的概率为f(Xi)/(f(X1)+f(X2)+……..+f(Xn))。

比例选择实现算法就是所谓的“轮盘赌算法”(RouletteWheelSelection),轮盘赌算法的一个简单的实现如下:

/*按设定的概率,随机选中一个个体,P[i]表示第i个个体被选中的概率*/

intRWS()

{

m=0;

r=Random(0,1);

//r为0至1的随机数

for(i=1;

i<

=N;

i++)

{/*产生的随机数在m~m+P[i]间则认为选中了i,因此i被选中的概率是P[i]*/

m=m+P[i];

if(r<

=m)returni;

}}

一般终止条件有以下几种:

进化次数限制;

计算耗费的资源限制(例如计算时间、计算占用的内存等);

一个个体已经满足最优值的条件,即最优值已经找到;

适应度已经达到饱和,继续进化不会产生适应度更好的个体;

人为干预;

以及以上两种或更多种的组合。

遗传算法的特点:

遗传算法从问题解的串集开始嫂索,而不是从单个解开始。

  这是遗传算法与传统优化算法的极大区别。

传统优化算法是从单个初始值迭代求最优解的;

容易误入局部最优解。

遗传算法从串集开始搜索,复盖面大,利于全局择优。

遗传算法求解时使用特定问题的信息极少,容易形成通用算法程序。

  由于遗传算法使用适应值这一信息进行搜索,并不需要问题导数等与问题直接相关的信息。

遗传算法只需适应值和串编码等通用信息,故几乎可处理任何问题。

遗传算法有极强的容错能力

  遗传算法的初始串集本身就带有大量与最优解甚远的信息;

通过选择、交叉、变异操作能迅速排除与最优解相差极大的串;

这是一个强烈的滤波过程;

并且是一个并行滤波机制。

故而,遗传算法有很高的容错能力。

遗传算法中的选择、交叉和变异都是随机操作,而不是确定的精确规则。

  这说明遗传算法是采用随机方法进行最优解搜索,选择体现了向最优解迫近,交叉体现了最优解的产生,变异体现了全局最优解的复盖。

遗传算法具有隐含的并行性

种群(Population):

生物的进化以群体的形式进行,这样的一个群体称为种群。

种群规模(P,populationsize):

即种群中染色体个体的数目。

个体:

组成种群的单个生物,即优化问题的解。

基因(Gene):

一个遗传因子。

染色体(Chromosome):

包含一组的基因。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 外语学习 > 韩语学习

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1