浙工大人工智能考博复习汇总.docx

上传人:b****5 文档编号:28788306 上传时间:2023-07-19 格式:DOCX 页数:21 大小:117.06KB
下载 相关 举报
浙工大人工智能考博复习汇总.docx_第1页
第1页 / 共21页
浙工大人工智能考博复习汇总.docx_第2页
第2页 / 共21页
浙工大人工智能考博复习汇总.docx_第3页
第3页 / 共21页
浙工大人工智能考博复习汇总.docx_第4页
第4页 / 共21页
浙工大人工智能考博复习汇总.docx_第5页
第5页 / 共21页
点击查看更多>>
下载资源
资源描述

浙工大人工智能考博复习汇总.docx

《浙工大人工智能考博复习汇总.docx》由会员分享,可在线阅读,更多相关《浙工大人工智能考博复习汇总.docx(21页珍藏版)》请在冰豆网上搜索。

浙工大人工智能考博复习汇总.docx

浙工大人工智能考博复习汇总

浙工大人工智能考博复习汇总

2013年人工智能考博

一、简笞题

1.人工習能的基本研究容。

1.知识表示

■知识表示:

將人类知识形式化或吉模里化。

■知识表示方法:

符号表示法、连接机制表示法。

符号表示法:

用各种包含具U含义的符号,以各种不冋的方式和顺序组合起来表示知识的一类方法。

例虬一阶谓词逆辑、产生式等。

连接机制表示法:

把各种物理对象以不间的方SKItlf连按起来,并在貝间互相传递及u工各w■色含具体意义的信息,以此来表示相关的槪念及a)Ro例如,神经网络等。

2.ftsea

□机器gffl:

使机器(计算机)具有类0于人的感知能力。

以机器視觉(machinevision)与机器听觉力壬。

3.机器思维

□机器思维:

对通过感知得来的外部信息及机器跚的各种工作信息进行有目的的处理。

4.机器学习

□机器学习(machinelearning):

研穽如何使计算机具有类似于人的学习能力,使它能通11学习自动堆获取知识。

1957年,Rosenblatt研制减功了感知机。

5.M3行为

□«1器行为:

廿算机的表达能力,ROM写—等能力。

2.专家系统和传缆程序的区别。

(1}S程思想:

传煤程序=数据结构+算法

专家系统=知识+推理

(2)传筑程序:

关于间题求解的affiB含于程序中。

专家系统:

知识单菽组ffifliR库,与推理机分SU

(3)处理对象:

传躱程序:

数值廿算和数据处理。

专家系鋭:

符号处理。

(4)传统程序:

不具有解SBto

专家系统:

具有解弹功能。

(5)传统程序:

产生正爾的答案。

专家通常产生正确的答案,有时产生錯锲的答案。

(6)系竦的体系结枸不同。

3.什么是估价函数?

A”搜索算垃的估价函数是如何・定的?

估价函數的任务就是ffiitft捜索结点的“有希里”程度,并依次给它们排定次序(在open表中)。

■估价函数:

U初始结自经过结点到ii目的结点的路径的最小代价估廿值,貝一般形式是

f(n)=g(n)+h(n)

一般地,在f(n)中,g(n)ffj比重越大,越顷向于宽度优先捜索方式,而h(n)的ttl越大,表示启发性能越强。

其中f(n)是从初始状态经由状态n到目标狀态的代价估计,

g(n)是在状态空间中从初始状态到狀态n的实际代价,

h(n)是从状态n到目标状态的最佳路径的估廿代价。

(对于路径搜累冋題,状态就是图中的节点,代价就是卽离)

h(n)的选取

保if枝到最短路径(量优解的)条件,关建在于估价函数f(n)的选取(或者说h(n)的选取)。

ft«]Kd(n)表达状态n到目标状态的阪离,那么h(n)的选取大致有如下三种18况:

1.如果h(n)<=d(n)到目标狀态的实际卽离,这种情况下,搜索的点数多,搜索围大,效率ffioffl能得到最优解。

2.如果h(n)=d(n),即更离ffiith(n)等于最短距离,影么搜索将严格沿着最短路径»fi,lit时的搜索效率是最高的。

3.如果h(n)>d(n),搜索的点数少,捜索围小,效率高,但不能保证得到最优解。

我们先下个定义,如果-个估价函数可以找出量短的路径,我0〕林之为可采纳性。

A*算沫是一彳、可采细的最好优先算法。

A*算法的估价函数可表示为:

f,(n)=g,(n)+h*(n)

这里,f(n)是估价函数,g'(n)是起点到节点n的最短路径值,h")是n到目标的最矯路经的启发個。

由于这个f'(n)其实是无法頂先知道的,们用前面的18价函%f(n)«近WoQ(n)代替『(n),但g(n)>=g'(n)才可(大多数情况下胡是満足的,可以不用考處),h(n)代替h'(n),ffih(n)<=h'(n)才可(这一点特别的亶要)。

可以征明应用曲样的估价函数是可以找到晟短路径的,也就是可采纳的。

我m说应用迪种估价因数的最好优先算法就是片算法。

4.遗传算法中的编玛是什么?

有耶几种编码方法?

编码是把一个冋題的可行解从其解空同转换到血传算法所能处理的搜索空间的转换方法。

而由遗传算沫解空间向冋题空冋的转换称为解西。

1-位串编码

一绒染色It编矜方沫:

将冋題空间的参数编矜为一錐孙列的染色体的方法。

(1)28

二进胃编码:

用若干二进制敢表示一ff11,將原间题的解空间映射列位串空间民{0,1}上,然后在位串空同上8(79传操作。

优点:

类做于生物染色U的组成,算法易干用生物遗传理论解释,遗传1*作如交叉、变异等易实现;算法处理的模成数最多。

缺点:

1相弟整数的二进制编侶可能具有般大的Hamming更离,降ffiTiS传算子的搜索效率。

15:

0111116:

10000

2要先给出求解的精度。

3求解高维优化冋題的二进制编码串荒,算法的搜累效率低。

(2)Gray编円

Gray编码:

将二堆剧编码通过一个变换flfilt换得到的编码<>

2・实数编玛

■采用实数表达进不助进行数制转換,可肓接在解的表现型上进行逋传標作。

■多$«««««的基本BS:

把每个参数先进行二进闕编侶得到子串,再把迪些子串连成一个完整的染色体。

■多参数映射编侶中的毎个子串对应各自的编码寥数,WW,可以有不同的串长度和参致的取值围》

■3.有序串编码

■有序冋题:

目标因数的IB不仪与表示解的字符串的值有关,而目与其所在字符串的位置有关。

■4,结构衣编码

二、利用IH结原9Sf?

定理证明

三、将一个谓词公直化为不带存在量词的Skolem标准式

四、fJffl可信度方法it算CF(H)

五、模勵推理(书上的,温度和风门大小的模榊推理)

兀、离|ftHopfield神经网络ftBP神经网络的输入层、输出层神经元个数,及非线性映射函数。

2009年期末

一、单选最{本题共8小题,每JS2分,#16分)

1.在谓词公式中,连接词的优先级别列是(

D)o

A.—,V,A,

—oB.A,V,—,—<->

C.—,A,V,

D.―,A,V,—*•,

<->

2.在培义网络中,用

()来标明类与子类之间的关系。

A.实例朕系

B.泛化朕系C•聚集朕系

D.囲性联系

3.谓词公武G在®f0ftK上是不可满足的,则该公式在个体变量MD±是()。

A.可满足的B.不可满足的C.无法确定

♦设S为子旬集,则按下述方法构造的域HI称为海伯伦域,简记为〃域。

(1)令H0是S中所有个体常量的集合,若S中不包含f体常量,処令凤)={刃,其中©为Hgffi定的一个个体常量。

(2)令〃,+1=H,U{S中所有〃元函数是//中的元素},其中,=0,1,2,•••o•定理3.2(海伯伦定理):

子旬集不可满足的充要条件是存在一彳、有限的不可满足的基子旬集。

4.假设S是不可满足的,|(A)一个旧结推理规则的从S到空子句的推理il程。

A.存在B.不存在C.无法确定

5.在主观Bayes方法中,几率的取值围为()。

A.[-1,1]B.[0,1]C.[-1,oo)D.[0,-)

(心旦=

・几率(odds)函数:

"7)i—P(x)

DZ\°(x)

P(x)=

・IB率:

1+g)

P(x)e[0,1],O(x)e[0,8)。

几率函数和槪率函数有相同的单调性。

6.

)W,前提F为真不支持

在可信度方法中,CF{H.F)的取值为(c

结论〃为真。

A.1B.0C.<0D.>0

・CFIH,E\的取值B:

[-1,1]o

・若由于相应证据的出现増MSifc//为真曲可信度,剧CFIH,F)>0,JI摒的出现越是支持〃为真,瞅喪CF(比&曲值越大。

・反之,CFIH,F)<0,证据的出现前是支持//为假,CFIH,G的值就

・若证据的出现与否与〃无关,JS/(//,F)=0。

二、多选题(本題共5丿J\Jg,每题2分,共10分)

1.人工智能研究的三大学液是()o

A.符号主义B.进化壬义C.任知主义D.连接壬义

2.对干框架表示法,下面叙述正确的是(AC)o

A.框架中,一f|g用于描述所论对象某一方面的堀性,一个侧面用于描述相应凤性的一个方面。

B.I8值可以是另一个HI架的名字,从而实现一fill架对另一个框架的凋用,表示出Hi架之间的纵向联系。

C.框架系统中问题的求解主要是通过匹配与填I8实现的。

D.框架表示法不能表示具有因果关系的知识。

■根架(frame):

—种描述所论对象(一个事物、事件或做念)扬性的数据结构。

■一个IB架由若干个被称为“I8”(slot)的结构组成,毎一个I8Q可根据实际悄况则分为若干个“侧面”(faced)。

■一个槽用于描述所论对象某一方面的超性。

■一个侧面用干描述相应憾性的一个方面。

■IS和K面所具有的矚性值分别被称为19值和II面值。

3.在主观Bayes推理中,充分性度量LSfll必要性IS量LN的取值下面哪些是合

理的(

be)0

A.

LS>1,

LN>1

B.LS>1,LN<1

C.

LS<1,

LN>1

D.LS<1,LN=1

IF

ETHEN

I(LS丄N)

H

(ls,LN)用来表saaiRnn«aR9Ls(%分性度量)和ln(«i性度■)

LS=

P(EIH)

P(EI「H)

LN=

l-P(EIH)

1—P(E1「H)

E和Y不可能同时支持〃或同时反对〃•不应该存在:

(1)£5>1,Z/V>1

(2)£5<1FLNO

•存在RftffiS:

(1)LS>1且LN<1

(2)LS<1且LNA1

4.下面对专家系统叙述錯误的是:

()obed

A.专家系筑是运用知识和推理来解决间題的;

B.专家系统是把关于问题求解的知识負含于程序中的;

C.专家系统不具有透明性,无法回答用户“Why”和“How”等间題。

D.利用骨架系统开发专家系统,相对干其他开发工具,其效率是最高的,灵活性是最好的,局限性也是最少的。

5.下面对机器学习方法叙述正确的是:

(bd)o

A.解释学习需要坏境提侠一组示側,而示側学习只要坏境提侠一个示側;

B.机楝式学习是没有推理能力的。

C.符号学习对模#1人类较低级的神经活动是比较有效的。

D.观察与发现学习是基于旧纳推理的。

■示例学习(learningfromexamples)Q称为实例学习或从例子中学习:

通ilUff境中取得若干与某毗有关的例子,经IJ3细得出一般性毗的一种学习方法。

■示例学习中,外部坏境(教帅)提哄一组例子(正例和SM),然后啦些特殊知识中归细岀适用于更大围的一般性知识,它将股盖所有的正例并排除所有反肌

I解释学习(explanation-basedlearning):

演绎学习方法。

■它是通il运用相关的领域知识,对当前提供的单f求解实例进行分折,从而构造解释并产生相应知识的。

■解翳学习:

通11运用相关的领域知识员一个训竦实例来对某一目标IB念进行学习,并最终生成这个目标闕念的一般性描if。

■解禅学习与示例学习的主要区别:

(1)示例学习:

系统要求输人一组实例。

解释学习:

输人一个实例。

(2)示例学习:

I月纳学习,不要求提険领域知识。

解释学习:

演绎学习,要求提哄完善的领域知识。

(3)示例学习:

脚念的获取,即知识塔加的一面。

解释学习:

技能提高的一面。

■以推理能力排列

・机械式学习,指导式学习,解释学习,类比学习,

示例学习,观察号发现学习。

■对領域理论的要来

・示例学习、观察与发现学习:

领M3it要求较少。

・解释学习:

要求提fft完善的领域知识。

■适用領域

・连接学习:

模抓人类较低级的神经活动。

・袴号学习:

模抓人类的高级思绒活动。

三、境空题(本题共5小题,每个空格1分,ft14分)

1.产生武系统一朋由三f基本部分组成:

、、

规则库、推理机,妹合数据库

2.在证弼理论中,金趣力的信任函数处4/)2称为函数,做然函数〃M)2称为函数,%I)-叱)表示对力的程度。

A(0,0.85)表示对力为假有一定的信任,信任度为。

:

WBA为真的总的信任程度。

:

凤彳効M的信任程度。

:

im非假的信任程度。

:

嫩瞬傅轻秽疑曲下限与上限。

PW-弘心1)表示对力是真是假不知道的程度,m不信任A,也不信任非A的程度

下限或信任,上限或攸然或不可顋斥,All.0.15

3•若用三层BP神经网络解决字母T和L的识别冋題。

毎个字骨用3x3二细二值图表示,令黑方恪为1,白方怡为0。

要求网络输出为1时,対应的字骨是T;而输岀为0时,对应的字母是L。

因此该BP伸经网络的输人层应色含个神经元,输出层应色含个神经元,输岀层神经元的非线性函数为。

91

4.BP学习算法的学习过程包祐两fil程,它是通过过程使锲差最小。

反向学习或反向传播

•BP网络:

多层前向网络(输入层、甬层、输岀层)。

•连接权值:

通itDelta学习算法进行修正。

•神经元传输函敷:

S形函敷。

•学习算袪:

正向传播、反向传播。

•层与层的连接是单向的,信息的传播是双向的。

5.遗传算法的基本操作算子包祐、、。

变异算子,交叉算子,选择或者夏制

-•可修编.

四、(8分)设4B、Q三人中有人从不说真话,也有人从不说假话。

某人向这三人分别提岀用一个间题:

“难是说说者?

”力答••“B和C都是说说者”;B答・.

"力和C部是说诡者”;Q答:

UA和0至少一个是说说者”。

试用旧结原理ii[明C

是老实人,PJ1QU不说假话。

(提示:

定义谓词厂(力表示x说真iSo)

如果A说真话,则有T(A)^^T(B)^T(C)i

如果A说假话,则有「T(A)tT(B)vT(C);

间9,有T(B)t-.T(A)a-.T(C),^T(B)TT(A)vT(C),T(C)t->T(A)v^T(C)。

(NO)

结论的否定力「T(C)。

——(3分)

可得子旬集»1)-.T(A)v-.T(B),2)-.T(A)v-.T(C),3)T(A)vT(B)vT(C),4)-T(B)v「T(C),5)-T(C)v「T(B)v-TG4),6)-.T(C)o——(3分)显然,子旬3)和5)IH结,可得NIL。

因而R0证。

一(2分)

如果A说的是假话,则有:

」T(A)tT(B)vT(C)。

同理,对B和C有:

T(B)T(A)a^T(C)

-iT(B)tT(A)vT(C)

T(C)T(A)v-,T(B)

「T(C)tT(A)aT(B)

化为子句集S:

(1k-T(A)gT(B)

(2)、「T(A)gT(C)

(3)、T(A)vT(B)vT(C)

(4)、「T(B)gT(C)

(5)、「T(A)—T(B)gT(C)

五、(8分)设有如下一组推理规则

A:

IF£THEN£(0.5)

血:

IP£AND£THEN£(0.8)

6:

IFETHENH(0.7)

Ai:

IF6ORETHENH(0.9)

fl已知CFIE、\=0.5,CF(E.)=0.6,CF(E,}=0.5,用可信度方法廿算

CF(H\并画出推理网络。

R1:

CF(E2,E1)=0.5CF(E2)=0.5*0.5=0.25

R2:

CF(E4)=0.8*MIN(CF(E2),CF(E3))=0.8*0.25=0.2

CF(H)2=0.7*0.2=0.14

R4:

CF(H,MAX(E3,E5))=CF(H,0.6)=0.9

CF(H)1=0.9*0.6=0.54

CF(H)=CF(H1)+CF(H2)-*=

 

As(1o分)用/r搜索算法求解丿1数侶难题,其朋始状态和目标状态分别血下图所示。

(1)试确定求解孩问题的/T算法的估价函数,给岀相应的搜索图(图中需标注各状态的估价值),以及冋題的最优解。

(2)说明/T搜索算法与力搜索算法的区别。

〜恥)

2「3|[2p|3

184164

■利用力搜索算法求解八数码冋题的搜索其估价函数定义为

・d(成态的深度,毎步为单位代价。

/(n)=J(/?

)+vv(n)

・讥股“不在位”的将牌数作为启发宿息的度量。

・畑:

为状态到目的状态的最优路径的代价。

.w(n)=Kn)

力搜索算法-"捜索算法。

A*算法

■上一节讨论的启发式搜索算法,都没有对估价函数f(n)做任何限制。

实际上,估价函数对搜索过程是十分重要的,如果选择不当,则有可能找不到问题的解,或者找到的不是问题的最优解。

为此,需要对估价函数进行某些限制。

A*算法就是对估价函数加上一些限制后得到的一种启发式搜索算法。

■假设f*(n)为从初始节点SO出发,约束经过节点n到达冃标节点的最小代价值。

估价函数f(n)则是f*(n)的估计值。

显然,f*(n)应由以下两部分祈给成:

一諭分是从初始节点SO到节点n的最小代价,记为g*(n):

另一部分是从节点n到目标节盖的最小代价,註为冷(n),当问题有多个冃标节点时,应选取其中代价最小尬一个。

因此有

■f*(n)=g*(n)+h*(n)

■把估价函数f(n)与f*(n)相比,g(n)是对g*(n)的一个值计,h(n)是对h*(n)A-个估计;隹这[琢个f占计中,尽@g(n)的倉容易计鼠但它不-定就是从初必节点

SO至骨也n的真正最小代价,很有可能从初始节点SO到节点n的真正最小代价还没有找到,故有

g(n)>g*(n)

■有了g*(n)和h*(n)的定义,如果我们对A算法(全局择优的启发式搜索算法)中的g(n)和h(n)分别提出如下限制:

■g(n)是对g*(n)的估计,且g(n)>0;

■h(n)是对h*(n)的下界,即对任意节点n均肴

■则称得到的算法为A*算法。

h(n)

000.20.61

-+-+一+—+-12345

七、(10分)设有模糊控制规则:

“如果富度低,則将风门开大”。

设温度和风门开度的论域为{123,4,5}。

“温度低”和“风门大”的模刪量可以表示为

•晋*尊+?

+9,b=“风门大“

134*5

已知事实较ttT,可以表示为

温度较低”=

0.810.60.40

一+一+——+——+-

12345

试用模糊推理爾定an开度。

要求:

(1)确定模糊控制规则的组含关系兄

(2)确定“温度较高”时“风门开度”的模糊量(其中合成果用最大-最小合成法)o

(3)给岀

(2)所得模糊量的Zadeh表示,并用加权平均判决迭进行模刪决策,给岀呗门开BT的渭晰量。

(1)R=[10.60.300]TO[000.20.61]=

(3)所得模制量的Zadeh表示为歹=0/1+0/2+0・2/3+0・6/4+0・8/5,用加权平均判决法进行模棚决N14风n开度”的淸断量为

0.2x3+0.6x4+0.8x5

0.2+0.6+0.8

Ax(8分)已知离aHopfield神经网络的连接权值矩阵为

—I0

2_2

3"3

各神经元的鬭值取为0。

任克给定一个初始状态140)=1-1,-1,11,请确定其所对应的一个隐定状态。

V2=f(W*v(0)t)=f(2/3-2/3)=f(0)=1;v

(1)=(-1,1,1}

V1=f(-2/3+2/3)=f(0)=1;v

(2)={1,1,1}

V3=f(2/3-2⑶=f(0)=1;={}

注意:

是串行

«-:

假设HRHopfield神经网络中个神经元状态的调整顺序为2-d-3,

22

IMv2

(1)=/[(--)x(-1)+0x(-1)+(--)x1]=/(0)=1,因而KD^-1,1,1};

224

v,

(2)=/[0x(-1)+(--)x1+-x(-1)]=/(--)=-1,因而K2)={-1,1,1};

224

v3(3)=/l-x(-1)+(--)xl+0x(-l)]=/(--)=-l,因而K3)={-1,1,1};——(6分)

Jw."

显然,卜1,1,1}是KO)所对应的穩定状态。

一(1ft)

或解二:

1B设与解一不同的神经元状态调整Si序,得到另一稳定狀态<1,-1,1}0

九、(16分)已知一个非线性函数:

f(xl9x2)=iO(x[-x2)2+(l-x,)2

0

1)若用连续Hopfield神经网络(CHNN)求解其最小值,要求画出CHNN的网络结沟图(图中需标注各神经元的输入连接权和岡值),给岀神经元的输出变换函数,以及求解上述间题的廿算能量函U;(6分)

X=兀/2・5(1分),神经元的输出变换因数可采用Sigmoid里因数,RP]十”

其中Q=1(1分)。

求解上述冋題的it算能量函数为£(vpv2)=10((2.5片尸一2・5冬]2+(1—2.5片尸(1分)

2)用遗传算法(GA)GA(GeneticAlgorithm)求解其最小值,若果用二进制编码,试确定染色体的长度,设itGA适应度函数,并说明适应度函数在GA中的作用;(5分)

25—0

2)由°・1=了—d分),可确定染色体的长度为2〃,即为10。

(1分)

(保证精度到小数点后一位,故每个xi至少2.5/0.1=25个二进制码)

1

GA的适应度因裁力/(、:

、)+(•,其中c为>0的常数。

(1分)

适应度函数在GA中的作用:

用于评价种特中个体的好坏,它是算法演化过程的鬼动力,是进行自然选择的唯一依据。

(2分)

3)分别给岀CHNN和GA求解上述冋題的主要求解步骤。

(5分)

用神经网络方法求解优化冋题的一JR步駅:

(1)将优化冋题的每一个可行解用换位矩阵表示。

(2)將换位拒阵与由〃个神经元构成的神经网络相对应:

每一个可打解的换

位矩阵的各元素与相应的神经元闻态输岀相对应。

(3)构造能量函数,便其最小值对应于优化冋题的最优解,并满足约東条件。

(4)用罚函数法构造目标函敷,与Hopfield神经网络的廿算能量函数表这衣相等,簡定各堆接权和怕置参数。

(5)给定网络初始状盗和网络参数等,使网络按动盗方程运打,直到務定状态,并将它解犀为优化冋聶的解。

CHNN求解约東优化问題的步骤(2分)

(1)选择合适的冋題表示方法,使CHNN的输出与优化冋题的可行解破此对应;

(2)用弭函数法写岀优化冋題的目标函数;

(3)令目标函数和能量SSHl等,确定CHNN的连接权和悄置电浹,HKsU态方程;

(4)给

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 工程科技 > 兵器核科学

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1