人工智能课程大作业及人工智能例题大纲文档格式.docx

上传人:b****6 文档编号:17333698 上传时间:2022-12-01 格式:DOCX 页数:28 大小:459.82KB
下载 相关 举报
人工智能课程大作业及人工智能例题大纲文档格式.docx_第1页
第1页 / 共28页
人工智能课程大作业及人工智能例题大纲文档格式.docx_第2页
第2页 / 共28页
人工智能课程大作业及人工智能例题大纲文档格式.docx_第3页
第3页 / 共28页
人工智能课程大作业及人工智能例题大纲文档格式.docx_第4页
第4页 / 共28页
人工智能课程大作业及人工智能例题大纲文档格式.docx_第5页
第5页 / 共28页
点击查看更多>>
下载资源
资源描述

人工智能课程大作业及人工智能例题大纲文档格式.docx

《人工智能课程大作业及人工智能例题大纲文档格式.docx》由会员分享,可在线阅读,更多相关《人工智能课程大作业及人工智能例题大纲文档格式.docx(28页珍藏版)》请在冰豆网上搜索。

人工智能课程大作业及人工智能例题大纲文档格式.docx

首先构造棋型估分,对五子棋当前局势的分析,对每步进行估分;

然后应用博弈树,提高AI智能,考虑层数,提高AI智能,接下来应用α-β剪枝,提高AI速度,经过α-β剪枝,可以极大的减少搜索的数量,从而提高了的AI速度,极大的减少了搜索层数对AI速度的影响。

4实验或测试结果

实验方案及结果:

1.检测双三或三活三

2.判断剩余空间是否能成五子

3.剪枝

5结论

通过对AI的学习,了解了极大极小值分析法的原理,以及这种博弈树的不足,当搜索层数过多时,计算量太大,严重影响了计算机下棋的速度,我们采用α-β剪枝技术来解决这一问题,,减掉不必要的枝,从而极大地减少了搜索层数对计算时间的影响。

虽然对极大极小分析法做了时间方面的改进,但仍有不足。

由于AI是有一定的失误率存在,所以,要想提高计算机走棋的精准度,增加搜索层数是很有必要的,而搜索层数对计算速度的影响又是不可避免的,并且影响很大,仅仅依靠对博弈树进行剪枝是不够的,还需进一步优化。

希望能在后续的课程学习中能进一步优化五子棋,提升AI的精准度,在增加搜索层数的同时,极大的减少对计算时间的影响。

参考文献

[1] 王万良.人工智能及其应用[M].北京.高等教育出版社,2008

[2] 王建雄.博弈树启发搜索算法在五子棋游戏中的研究应用[M].科技开发情报与经济,2011,21(29)

 

1.用谓词逻辑知识表示方法表示如下知识:

(1)有人喜欢梅花,有人喜欢菊花,有人既喜欢梅花又喜欢菊花。

(2)不是每个计算机系的学生都喜欢在计算机上编程序。

解:

(1)

定义谓词

P(x):

x是人

L(x,y):

x喜欢y

其中,y的个体域是{梅花,菊花}。

将知识用谓词表示为:

(∃x)(P(x)→L(x,梅花)∨L(x,菊花)∨L(x,梅花)∧L(x,菊花))

(2)

S(x):

x是计算机系学生

L(x,pragramming):

x喜欢编程序

U(x,computer):

x使用计算机

¬

(∀x)(S(x)→L(x,pragramming)∧U(x,computer))

2.请用语义网络表示如下知识:

高老师从3月到7月给计算机系的学生讲“计算机网络”课。

3.判断以下子句集是否为不可满足

{P(x)∨Q(x)∨R(x),﹁P(y)∨R(y),﹁Q(a),﹁R(b)}

采用归结反演,存在如下归结树,故该子句集为不可满足。

4、证明G是F的逻辑结论

F:

(∃x)(∃y)(P(f(x))∧(Q(f(y)))

G:

P(f(a))∧P(y)∧Q(y)

证:

先转化成子句集

对F,进行存在固化,有

P(f(v))∧(Q(f(w)))

得以下两个子句

P(f(v)),Q(f(w))

对﹁G,有

﹁P(f(a))∨﹁P(y)∨﹁Q(y)

先进行内部合一,设合一{f(a)/y},则有因子

﹁P(f(a))∨﹁Q(f(a))

再对上述子句集进行归结演绎推理。

其归结树如下图所示,即存在一个到空子句的归结过程。

因此G为真。

5设有如下结构的移动将牌游戏:

其中,B表示黑色将牌,W表是白色将牌,E表示空格。

游戏的规定走法是:

(1)任意一个将牌可移入相邻的空格,规定其代价为1;

(2)任何一个将牌可相隔1个其它的将牌跳入空格,其代价为跳过将牌的数目加1。

游戏要达到的目标什是把所有W都移到B的左边。

对这个问题,请定义一个启发函数h(n),并给出用这个启发函数产生的搜索树。

你能否判别这个启发函数是否满足下界要求?

在求出的搜索树中,对所有节点是否满足单调限制?

设h(x)=每个W左边的B的个数,f(x)=d(x)+3*h(x),其搜索树如下:

6设有如下一组推理规则:

r1:

IFE1THENE2(0.6)

r2:

IFE2ANDE3THENE4(0.7)

r3:

IFE4THENH(0.8)

r4:

IFE5THENH(0.9)

且已知CF(E1)=0.5,CF(E3)=0.6,CF(E5)=0.7。

求CF(H)=?

(1)先由r1求CF(E2)

CF(E2)=0.6×

max{0,CF(E1)}

=0.6×

max{0,0.5}=0.3

(2)再由r2求CF(E4)

CF(E4)=0.7×

max{0,min{CF(E2),CF(E3)}}

=0.7×

max{0,min{0.3,0.6}}=0.21

(3)再由r3求CF1(H)

CF1(H)=0.8×

max{0,CF(E4)}

=0.8×

max{0,0.21)}=0.168

(4)再由r4求CF2(H)

CF2(H)=0.9×

max{0,CF(E5)}

=0.9×

max{0,0.7)}=0.63

(5)最后对CF1(H)和CF2(H)进行合成,求出CF(H)

CF(H)=CF1(H)+CF2(H)-CF1(H)×

CF2(H)

=0.692

7设训练例子集如下表所示:

请用ID3算法完成其学习过程。

设根节点为S,尽管它包含了所有的训练例子,但却没有包含任何分类信息,因此具有最大的信息熵。

即:

H(S)=-(P(+)log2P(+)-P(-)log2P(-))

式中

P(+)=3/6,P(-)=3/6

即有

H(S)=-((3/6)*log(3/6)-(3/6)*log(3/6))

=-0.5*(-1)-0.5*(-1)=1

按照ID3算法,需要选择一个能使S的期望熵为最小的一个属性对根节点进行扩展,因此我们需要先计算S关于每个属性的条件熵:

H(S|xi)=(|ST|/|S|)*H(ST)+(|SF|/|S|)*H(SF)

其中,T和F为属性xi的属性值,ST和SF分别为xi=T或xi=F时的例子集,|S|、|ST|和|SF|分别为例子集S、ST和SF的大小。

下面先计算S关于属性x1的条件熵:

在本题中,当x1=T时,有:

ST={1,2,3}

当x1=F时,有:

SF={4,5,6}

其中,ST和SF中的数字均为例子集S中例子的序号,且有|S|=6,|ST|=|SF|=3。

由ST可知:

    P(+)=2/3,P(-)=1/3

则有:

H(ST)=-(P(+)log2P(+)-P(-)log2P(-))

=-((2/3)log2(2/3)-(1/3)log2(1/3))==0.9183

再由SF可知:

    PSF(+)=1/3,PSF(-)=2/3

H(SF)=-(PSF(+)log2PST(+)-PSF(-)log2PSF(-))

=-((2/3)log2(2/3)-(1/3)log2(1/3))=0.9183

将H(ST)和H(SF)代入条件熵公式,有:

H(S|x1)=(|ST|/|S|)H(ST)+(|SF|/|S|)H(SF)

=(3/6)﹡0.9183+(3/6)﹡0.9183

=0.9183

下面再计算S关于属性x2的条件熵:

在本题中,当x2=T时,有:

ST={1,2,5,6}

当x2=F时,有:

SF={3,4}

其中,ST和SF中的数字均为例子集S中的各个例子的序号,且有|S|=6,|ST|=4,|SF|=2。

    PST(+)=2/4

PST(-)=2/4

H(ST)=-(PST(+)log2PST(+)-PST(-)log2PST(-))

=-((2/4)log2(2/4)-(2/4)log2(2/4))

=1

   PSF(+)=1/2

PSF(-)=1/2

H(SF)=-(P(+)log2P(+)-P(-)log2P(-))

=-((1/2)log2(1/2)-(1/2)log2(1/2))

H(S|x2)=(|ST|/|S|)H(ST)+(|SF|/|S|)H(SF)

=(4/6)﹡1+(2/6)﹡1

可见,应该选择属性x1对根节点进行扩展。

用x1对S扩展后所得到的部分决策树如下图所示。

8八数码难题

f(n)=d(n)+P(n)

d(n)深度

P(n)与目标距离

显然满足

P(n)≤h*(n)

即f*=g*+h*

9修道士和野人问题

用m表示左岸的修道士人数,c表示左岸的野人数,b表示左岸的船数,用三元组(m,c,b)表示问题的状态。

对A*算法,首先需要确定估价函数。

设g(n)=d(n),h(n)=m+c-2b,则有

f(n)=g(n)+h(n)=d(n)+m+c-2b

其中,d(n)为节点的深度。

通过分析可知h(n)≤h*(n),满足A*算法的限制条件。

M-C问题的搜索过程如下图所示。

10设有如下一组知识:

r1:

IFE1THENH(0.9)

r2:

IFE2THENH(0.6)

r3:

IFE3THENH(-0.5)

r4:

IFE4AND(E5ORE6)THENE1(0.8)

已知:

CF(E2)=0.8,CF(E3)=0.6,CF(E4)=0.5,CF(E5)=0.6,CF(E6)=0.8

求:

CF(H)=?

由r4得到:

CF(E1)=0.8×

max{0,CF(E4AND(E5ORE6))}

=0.8×

max{0,min{CF(E4),CF(E5ORE6)}}

=0.8×

max{0,min{CF(E4),max{CF(E5),CF(E6)}}}

max{0,min{CF(E4),max{0.6,0.8}}}

max{0,min{0.5,0.8}}

max{0,0.5}=0.4

由r1得到:

CF1(H)=CF(H,E1)×

max{0,CF(E1)}

     =0.9×

max{0,0.4}=0.36

由r2得到:

CF2(H)=CF(H,E2)×

max{0,CF(E2)}

     =0.6×

max{0,0.8}=0.48

由r3得到:

CF3(H)=CF(H,E3)×

max{0,CF(E3)}

     =-0.5×

max{0,0.6}=-0.3

根据结论不精确性的合成算法,CF1(H)和CF2(H)同号,有:

CF12(H)和CF3(H)异号,有:

即综合可信度为CF(H)=0.53

11设有如下知识:

IFE1(0.6)ANDE2(0.4)THENE5(0.8)

IFE3(0.5)ANDE4(0.3)ANDE5(0.2)THENH(0.9)

CF(E1)=0.9,CF(E2)=0.8,CF(E3)=0.7,CF(E4)=0.6

CF(H)=?

CF(E1ANDE2)=0.9*0.6+0.8*0.4=0.86

CF(E5)=0.86*0.8=0.69

CF(E3ANDE4ANDE5)

=0.7*0.5+0.6*0.3+0.69*0.2=0.67

CF(H)=0.67*0.9=0.60

12设有如下规则:

IFE1ANDE2THENA={a1,a2}CF={0.3,0.5}

IFE3THENH={h1,h2}CF={0.4,0.2}

IFATHENH={h1,h2}CF={0.1,0.5}

已知用户对初始证据给出的确定性为:

CER(E1)=0.8CER(E2)=0.6

CER(E3)=0.9

并假Ω定中的元素个数∣Ω∣=10

CER(H)=?

由给定知识形成的推理网络如下图所示:

(1)求CER(A)

由r1:

CER(E1ANDE2)

=min{CER(E1),CER(E2)}

=min{0.8,0.6}=0.6

m({a1},{a2})={0.6×

0.3,0.6×

0.5}={0.18,0.3}

Bel(A)=m({a1})+m({a2})=0.18+0.3=0.48

Pl(A)=1-Bel(﹁A)=1-0=1

f(A)=Bel(A)+|A|/|Ω|•[Pl(A)-Bel(A)]

=0.48+2/10*[1-0.48]

=0.584

CER(A)=MD(A/E'

)×

f(A)=0.584

(2)求CER(H)

由r2得

m1({h1},{h2})={CER(E3)×

0.4,CER(E3)×

0.2}

={0.9×

0.4,0.9×

={0.36,0.18}

m1(Ω)=1-[m1({h1})+m1({h2})]

=1-[0.36+0.18]=0.46

由r3得

m2({h1},{h2})={CER(A)×

0.1,CER(A)×

0.5}

={0.58×

0.1,0.58×

={0.06,0.29}

m2(Ω)=1-[m2({h1})+m2({h2})]

=1-[0.06+0.29]=0.65

求正交和m=m1⊕m2

K=m1(Ω)×

m2(Ω)

+m1({h1})×

m2({h1})+m1({h1})×

m2(Ω)+m1(Ω)×

m2({h1})

+m1({h2})×

m2({h2})+m1({h2})×

m2({h2})

=0.46×

0.65

+0.36×

0.06+0.36×

0.65+0.46×

0.06

+0.18×

0.29+0.18×

0.29

=0.30+(0.02+0.23+0.03)+(0.05+0.12+0.13)

=0.88

同理可得:

故有:

m(Ω)=1-[m({h1})+m({h2})]

=1-[0.32+0.34]=0.34

再根据m可得

Bel(H)=m({h1})+m({h2})=0.32+0.34=0.66

Pl(H)=m(Ω)+Bel(H)=0.34+0.66=1

CER(H)=MD(H/E'

f(H)=0.73

13用ID3算法完成下述学生选课的例子

假设将决策y分为以下3类:

y1:

必修AI

y2:

选修AI

y3:

不修AI

做出这些决策的依据有以下3个属性:

x1:

学历层次 x1=1研究生,x1=2本科

x2:

专业类别 x2=1电信类,x2=2机电类

x3:

学习基础 x3=1修过AI,x3=2未修AI

表6.1给出了一个关于选课决策的训练例子集S。

该训练例子集S的大小为8。

ID3算法就是依据这些训练例子,以S为根节点,按照信息熵下降最大的原则来构造决策树的。

首先对根节点,其信息熵为:

其中,3为可选的决策方案数,且有

    P(y1)=1/8,P(y2)=2/8,P(y3)=5/8

即有:

H(S)=-(1/8)log2(1/8)-(2/8)log2(2/8)-(5/8)log2(5/8)=1.2988

其中,t为属性xi的属性值,St为xi=t时的例子集,|S|和|St|分别是例子集S和St的大小。

在表6-1中,x1的属性值可以为1或2。

当x1=1时,t=1时,有:

S1={1,2,3,4}

当x1=2时,t=2时,有:

S2={5,6,7,8}

其中,S1和S2中的数字均为例子集S中的各个例子的序号,且有|S|=8,|S1|=|S2|=4。

由S1可知:

Ps1(y1)=1/4,Ps1(y2)=1/4,Ps1(y3)=2/4

H(S1)=-Ps1(y1)log2Ps1(y1)-Ps1(y2)log2Ps1(y2)-Ps1(y3)log2Ps1(y3)

=-(1/4)log2(1/4)-(1/4)log2(1/4)-(2/4)log2(2/4)=1.5

再由S2可知:

Ps2(y1)=0/4,Ps2(y2)=1/4,Ps2(y3)=3/4

H(S2)=–Ps2(y2)log2Ps2(y2)-Ps2(y3)log2Ps2(y3)

=-(1/4)log2(1/4)-(3/4)log2(3/4)=0.8113

将H(S1)和H(S2)代入条件熵公式,有:

H(S/x1)=(|S1|/|S|)H(S1)+(|S2|/|S|)H(S2)

=(4/8)﹡1.5+(4/8)﹡0.8113=1.1557

同样道理,可以求得:

H(S/x2)=1.1557

H(S/x3)=0.75

可见,应该选择属性x3对根节点进行扩展。

用x3对S扩展后所得到的得到部分决策树如图6.5所示。

在该树中,节点“x3=1,y3”为决策方案y3。

由于y3已是具体的决策方案,故该节点的信息熵为0,已经为叶节点。

节点“x3=2,x1,x2?

”的含义是需要进一步考虑学历和专业这两个属性,它是一个中间节点,还需要继续扩展。

至于其扩展方法与上面的过程类似。

通过计算可知,该节点对属性x1和x2,其条件熵均为1。

由于它对属性x1和x2的条件熵相同,因此可以先选择x1,也可以先选择x2。

依此进行下去,若先选择x1可得到如图6.6所示的最终的决策树;

若先选择x2可得到如图7.7所示的最终的决策树。

14(归结反演)

“张和李是同班同学,如果x和y是同班同学,则x的教室也是y的教室,现在张在302教室上课。

问:

“现在李在哪个教室上课?

首先定义谓词:

C(x,y)x和y是同班同学;

At(x,u)x在u教室上课。

把已知前提用谓词公式表示如下:

C(zhang,li)

(∀x)(∀y)(∀u)(C(x,y)∧At(x,u)→At(y,u))

At(zhang,302)

把目标的否定用谓词公式表示如下:

﹁(∃v)At(li,v)

把上述公式化为子句集:

﹁C(x,y)∨﹁At(x,u)∨At(y,u)

At(zhang,302)

把目标的否定化成子句式,并用重言式

﹁At(li,v)∨At(li,v)

代替之。

把此重言式加入前提子句集中,得到一个新的子句集,对这个新的子句集,应用归结原理求出其证明树。

其求解过程如下图所示。

该证明树的根子句就是所求的答案,即“李明在302教室”。

公式:

A估价函数

用来估计节点重要性,定义为从初始节点S0出发,约束经过节点n到达目标节点Sg的所有路径中最小路径代价的估计值。

一般形式:

f(n)=g(n)+h(n)

其中,g(n)是从初始节点S0到节点n的实际代价;

h(n)是从节点n到目标节点Sg的最优路径的估计代价。

BA*算法是对A算法的估价函数f(n)=g(n)+h(n)加上某些限制后得到的一种启发式搜索算法

假设f*(n)是从初始节点S0出发,约束经过节点n到达目标节点Sg的最小代价,估价函数f(n)是对f*(n)的估计值。

f*(n)=g*(n)+h*(n)

其中,g*(n)是从S0出发到达n的最小代价,h*(n)是n到Sg的最小代价

如果对A算法(全局择优)中的g(n)和h(n)分别提出如下限制:

第一,g(n)是对最小代价g*(n)的估计,且g(n)>

0;

第二,h(n)是

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 高中教育 > 英语

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1