第二章课后习题与答案要点.docx

上传人:b****4 文档编号:27179167 上传时间:2023-06-27 格式:DOCX 页数:22 大小:80.15KB
下载 相关 举报
第二章课后习题与答案要点.docx_第1页
第1页 / 共22页
第二章课后习题与答案要点.docx_第2页
第2页 / 共22页
第二章课后习题与答案要点.docx_第3页
第3页 / 共22页
第二章课后习题与答案要点.docx_第4页
第4页 / 共22页
第二章课后习题与答案要点.docx_第5页
第5页 / 共22页
点击查看更多>>
下载资源
资源描述

第二章课后习题与答案要点.docx

《第二章课后习题与答案要点.docx》由会员分享,可在线阅读,更多相关《第二章课后习题与答案要点.docx(22页珍藏版)》请在冰豆网上搜索。

第二章课后习题与答案要点.docx

第二章课后习题与答案要点

第2章人工智能与知识工程初步

1.设有如下语句,请用相应的谓词公式分别把他们表示出来:

s

(1)有的人喜欢梅花,有的人喜欢菊花,有的人既喜欢梅花又喜欢菊花。

解:

定义谓词d

P(x):

x是人

L(x,y):

x喜欢y

其中,y的个体域是{梅花,菊花}。

将知识用谓词表示为:

x)(P(x)→L(x,梅花)∨L(x,菊花)∨L(x,梅花)∧L(x,菊花))

(2)有人每天下午都去打篮球。

解:

定义谓词

P(x):

x是人

B(x):

x打篮球

A(y):

y是下午

将知识用谓词表示为:

a

x)(

y)(A(y)→B(x)∧P(x))

(3)新型计算机速度又快,存储容量又大。

解:

定义谓词

NC(x):

x是新型计算机

F(x):

x速度快

B(x):

x容量大

将知识用谓词表示为:

x)(NC(x)→F(x)∧B(x))

(4)不是每个计算机系的学生都喜欢在计算机上编程序。

解:

定义谓词

S(x):

x是计算机系学生

L(x,pragramming):

x喜欢编程序

U(x,computer):

x使用计算机

将知识用谓词表示为:

¬(

x)(S(x)→L(x,pragramming)∧U(x,computer))

(5)凡是喜欢编程序的人都喜欢计算机。

解:

定义谓词

P(x):

x是人

L(x,y):

x喜欢y

将知识用谓词表示为:

x)(P(x)∧L(x,pragramming)→L(x,computer))

2请对下列命题分别写出它们的语义网络:

(1)每个学生都有一台计算机。

解:

 

(2)高老师从3月到7月给计算机系学生讲《计算机网络》课。

解:

(3)学习班的学员有男、有女、有研究生、有本科生。

解:

参例2.14

(4)创新公司在科海大街56号,刘洋是该公司的经理,他32岁、硕士学位。

解:

参例2.10

(5)红队与蓝队进行足球比赛,最后以3:

2的比分结束。

解:

2.19请把下列命题用一个语义网络表示出来:

(1)树和草都是植物;

解:

 

(2)树和草都有叶和根;

解:

 

(3)水草是草,且生长在水中;

解:

(4)果树是树,且会结果;

解:

(5)梨树是果树中的一种,它会结梨。

解:

第5章计算智能部分参考答案

5.15对遗传法的选择操作:

设种群规模为4,个体采用二进制编码,适应度函数为f(x)=x2,初始种群情况如下表所示:

编号

个体串

x

适应值

百分比

累计百分比

选中次数

S01

1010

10

S02

0100

4

S03

1100

12

S04

0111

7

若规定选择概率为100%,选择算法为轮盘赌算法,且依次生成的4个随机数为0.42,0.16,0.89,0.71,请填写上表中的全部内容,并求出经本次选择操作后所得到的新的种群。

解:

表格的完整内容为:

编号

个体串

x

适应值

百分比

累计百分比

选中次数

S01

1010

10

100

32.36

32.36

1

S02

0100

4

16

5.18

37.54

0

S03

1100

12

144

44.60

84.14

2

S04

0111

7

49

15.86

100

1

本次选择后所得到的新的种群为:

S01=1100

S02=1010

S03=0111

S04=1100

5.18设某小组有5个同学,分别为S1,S2,S3,S4,S5。

若对每个同学的“学习好”程度打分:

S1:

95S2:

85S3:

80S4:

70S5:

90

这样就确定了一个模糊集F,它表示该小组同学对“学习好”这一模糊概念的隶属程度,请写出该模糊集。

解:

对模糊集为F,可表示为:

F=95/S1+85/S2+80/S3+70/S4+90/S5

F={95/S1,85/S2,80/S3,70/S4,90/S5}

5.19设有论域

U={u1,u2,u3,u4,u5}

并设F、G是U上的两个模糊集,且有

F=0.9/u1+0.7/u2+0.5/u3+0.3/u4

G=0.6/u3+0.8/u4+1/u5

请分别计算F∩G,F∪G,﹁F。

解:

F∩G=(0.9∧0)/u1+(0.7∧0)/u2+(0.5∧0.6)/u3+(0.3∧0.8)/u4+(0∧1)/u5

=0/u1+0/u2+0.5/u3+0.3/u4+0/u5

=0.5/u3+0.3/u4

F∪G=(0.9∨0)/u1+(0.7∨0)/u2+(0.5∨0.6)/u3+(0.3∨0.8)/u4+(0∨1)/u5

=0.9/u1+0.7/u2+0.6/u3+0.8/u4+1/u5

﹁F=(1-0.9)/u1+(1-0.7)/u2+(1-0.5)/u3+(1-0.3)/u4+(1-0)/u5

=0.1/u1+0.3/u2+0.5/u3+0.7/u4+1/u5

5.21设有如下两个模糊关系:

请写出R1与R2的合成R1οR2。

解:

R(1,1)=(0.3∧0.2)∨(0.7∧0.6)∨(0.2∧0.9)=0.2∨0.6∨0.2=0.6

R(1,2)=(0.3∧0.8)∨(0.7∧0.4)∨(0.2∧0.1)=0.3∨0.4∨0.1=0.4

R(2,1)=(1∧0.2)∨(0∧0.6)∨(0.4∧0.9)=0.2∨0∨0.4=0.4

R(2,2)=(1∧0.8)∨(0∧0.4)∨(0.4∧0.1)=0.8∨0∨0.1=0.8

R(3,1)=(0∧0.2)∨(0.5∧0.6)∨(1∧0.9)=0.2∨0.6∨0.9=0.9

R(3,2)=(0∧0.8)∨(0.5∧0.4)∨(1∧0.1)=0∨0.4∨0.1=0.4

因此有

5.22设F是论域U上的模糊集,R是U×V上的模糊关系,F和R分别为:

求模糊变换FοR。

解:

={0.1∨0.4∨0.6,0.3∨0.6∨0.3,0.4∨0.6∨0}

={0.6,0.6,0.6}

第6章不确定性推理部分参考答案

6.8设有如下一组推理规则:

r1:

IFE1THENE2(0.6)

r2:

IFE2ANDE3THENE4(0.7)

r3:

IFE4THENH(0.8)

r4:

IFE5THENH(0.9)

且已知CF(E1)=0.5,CF(E3)=0.6,CF(E5)=0.7。

求CF(H)=?

解:

(1)先由r1求CF(E2)

CF(E2)=0.6×max{0,CF(E1)}

=0.6×max{0,0.5}=0.3

(2)再由r2求CF(E4)

CF(E4)=0.7×max{0,min{CF(E2),CF(E3)}}

=0.7×max{0,min{0.3,0.6}}=0.21

(3)再由r3求CF1(H)

CF1(H)=0.8×max{0,CF(E4)}

=0.8×max{0,0.21)}=0.168

(4)再由r4求CF2(H)

CF2(H)=0.9×max{0,CF(E5)}

=0.9×max{0,0.7)}=0.63

(5)最后对CF1(H)和CF2(H)进行合成,求出CF(H)

CF(H)=CF1(H)+CF2(H)+CF1(H)×CF2(H)

=0.692

6.10 设有如下推理规则

r1:

IFE1THEN(2,0.00001)H1

r2:

IFE2THEN(100,0.0001)H1

r3:

IFE3THEN(200,0.001)H2

r4:

IFH1THEN(50,0.1)H2

且已知P(E1)=P(E2)=P(H3)=0.6,P(H1)=0.091,P(H2)=0.01,又由用户告知:

P(E1|S1)=0.84,P(E2|S2)=0.68,P(E3|S3)=0.36

请用主观Bayes方法求P(H2|S1,S2,S3)=?

解:

(1)由r1计算O(H1|S1)

先把H1的先验概率更新为在E1下的后验概率P(H1|E1)

P(H1|E1)=(LS1×P(H1))/((LS1-1)×P(H1)+1)

=(2×0.091)/((2-1)×0.091+1)

=0.16682

由于P(E1|S1)=0.84>P(E1),使用P(H|S)公式的后半部分,得到在当前观察S1下的后验概率P(H1|S1)和后验几率O(H1|S1)

P(H1|S1)=P(H1)+((P(H1|E1)–P(H1))/(1-P(E1)))×(P(E1|S1)–P(E1))

=0.091+(0.16682–0.091)/(1–0.6))×(0.84–0.6)

=0.091+0.18955×0.24=0.136492

O(H1|S1)=P(H1|S1)/(1-P(H1|S1))

=0.15807

(2)由r2计算O(H1|S2)

先把H1的先验概率更新为在E2下的后验概率P(H1|E2)

P(H1|E2)=(LS2×P(H1))/((LS2-1)×P(H1)+1)

=(100×0.091)/((100-1)×0.091+1)

=0.90918

由于P(E2|S2)=0.68>P(E2),使用P(H|S)公式的后半部分,得到在当前观察S2下的后验概率P(H1|S2)和后验几率O(H1|S2)

P(H1|S2)=P(H1)+((P(H1|E2)–P(H1))/(1-P(E2)))×(P(E2|S2)–P(E2))

=0.091+(0.90918–0.091)/(1–0.6))×(0.68–0.6)

=0.25464

O(H1|S2)=P(H1|S2)/(1-P(H1|S2))

=0.34163

(3)计算O(H1|S1,S2)和P(H1|S1,S2)

先将H1的先验概率转换为先验几率

O(H1)=P(H1)/(1-P(H1))=0.091/(1-0.091)=0.10011

再根据合成公式计算H1的后验几率

O(H1|S1,S2)=(O(H1|S1)/O(H1))×(O(H1|S2)/O(H1))×O(H1)

=(0.15807/0.10011)×(0.34163)/0.10011)×0.10011

=0.53942

再将该后验几率转换为后验概率

P(H1|S1,S2)=O(H1|S1,S2)/(1+O(H1|S1,S2))

=0.35040

(4)由r3计算O(H2|S3)

先把H2的先验概率更新为在E3下的后验概率P(H2|E3)

P(H2|E3)=(LS3×P(H2))/((LS3-1)×P(H2)+1)

=(200×0.01)/((200-1)×0.01+1)

=0.09569

由于P(E3|S3)=0.36

P(H2|S3)=P(H2|¬E3)+(P(H2)–P(H2|¬E3))/P(E3))×P(E3|S3)

由当E3肯定不存在时有

P(H2|¬E3)=LN3×P(H2)/((LN3-1)×P(H2)+1)

=0.001×0.01/((0.001-1)×0.01+1)

=0.00001

因此有

P(H2|S3)=P(H2|¬E3)+(P(H2)–P(H2|¬E3))/P(E3))×P(E3|S3)

=0.00001+((0.01-0.00001)/0.6)×0.36

=0.00600

O(H2|S3)=P(H2|S3)/(1-P(H2|S3))

=0.00604

(5)由r4计算O(H2|H1)

先把H2的先验概率更新为在H1下的后验概率P(H2|H1)

P(H2|H1)=(LS4×P(H2))/((LS4-1)×P(H2)+1)

=(50×0.01)/((50-1)×0.01+1)

=0.33557

由于P(H1|S1,S2)=0.35040>P(H1),使用P(H|S)公式的后半部分,得到在当前观察S1,S2下H2的后验概率P(H2|S1,S2)和后验几率O(H2|S1,S2)

P(H2|S1,S2)=P(H2)+((P(H2|H1)–P(H2))/(1-P(H1)))×(P(H1|S1,S2)–P(H1))

=0.01+(0.33557–0.01)/(1–0.091))×(0.35040–0.091)

=0.10291

O(H2|S1,S2)=P(H2|S1,S2)/(1-P(H2|S1,S2))

=0.10291/(1-0.10291)=0.11472

(6)计算O(H2|S1,S2,S3)和P(H2|S1,S2,S3)

先将H2的先验概率转换为先验几率

O(H2)=P(H2)/(1-P(H2))=0.01/(1-0.01)=0.01010

再根据合成公式计算H1的后验几率

O(H2|S1,S2,S3)=(O(H2|S1,S2)/O(H2))×(O(H2|S3)/O(H2))×O(H2)

=(0.11472/0.01010)×(0.00604)/0.01010)×0.01010

=0.06832

再将该后验几率转换为后验概率

P(H2|S1,S2,S3)=O(H1|S1,S2,S3)/(1+O(H1|S1,S2,S3))

=0.06832/(1+0.06832)=0.06395

可见,H2原来的概率是0.01,经过上述推理后得到的后验概率是0.06395,它相当于先验概率的6倍多。

6.11设有如下推理规则

r1:

IFE1THEN(100,0.1)H1

r2:

IFE2THEN(50,0.5)H2

r3:

IFE3THEN(5,0.05)H3

且已知P(H1)=0.02,P(H2)=0.2,P(H3)=0.4,请计算当证据E1,E2,E3存在或不存在时P(Hi|Ei)或P(Hi|﹁Ei)的值各是多少(i=1,2,3)?

解:

(1)当E1、E2、E3肯定存在时,根据r1、r2、r3有

P(H1|E1)=(LS1×P(H1))/((LS1-1)×P(H1)+1)

=(100×0.02)/((100-1)×0.02+1)

=0.671

P(H2|E2)=(LS2×P(H2))/((LS2-1)×P(H2)+1)

=(50×0.2)/((50-1)×0.2+1)

=0.9921

P(H3|E3)=(LS3×P(H3))/((LS3-1)×P(H3)+1)

=(5×0.4)/((5-1)×0.4+1)

=0.769

(2)当E1、E2、E3肯定存在时,根据r1、r2、r3有

P(H1|¬E1)=(LN1×P(H1))/((LN1-1)×P(H1)+1)

=(0.1×0.02)/((0.1-1)×0.02+1)

=0.002

P(H2|¬E2)=(LN2×P(H2))/((LN2-1)×P(H2)+1)

=(0.5×0.2)/((0.5-1)×0.2+1)

=0.111

P(H3|¬E3)=(LN3×P(H3))/((LN3-1)×P(H3)+1)

=(0.05×0.4)/((0.05-1)×0.4+1)

=0.032

6.13设有如下一组推理规则:

r1:

IFE1ANDE2THENA={a}(CF={0.9})

r2:

IFE2AND(E3ORE4)THENB={b1,b2}(CF={0.8,0.7})

r3:

IFATHENH={h1,h2,h3}(CF={0.6,0.5,0.4})

r4:

IFBTHENH={h1,h2,h3}(CF={0.3,0.2,0.1})

且已知初始证据的确定性分别为:

CER(E1)=0.6,CER(E2)=0.7,CER(E3)=0.8,CER(E4)=0.9。

假设|Ω|=10,求CER(H)。

解:

其推理过程参考例6.9

具体过程略

6.15设

U=V={1,2,3,4}

且有如下推理规则:

IFxis少THENyis多

其中,“少”与“多”分别是U与V上的模糊集,设

少=0.9/1+0.7/2+0.4/3

多=0.3/2+0.7/3+0.9/4

已知事实为

xis较少

“较少”的模糊集为

较少=0.8/1+0.5/2+0.2/3

请用模糊关系Rm求出模糊结论。

解:

先用模糊关系Rm求出规则

IFxis少THENyis多

所包含的模糊关系Rm

Rm(1,1)=(0.9∧0)∨(1-0.9)=0.1

Rm(1,2)=(0.9∧0.3)∨(1-0.9)=0.3

Rm(1,3)=(0.9∧0.7)∨(1-0.9)=0.7

Rm(1,4)=(0.9∧0.9)∨(1-0.9)=0.7

Rm(2,1)=(0.7∧0)∨(1-0.7)=0.3

Rm(2,2)=(0.7∧0.3)∨(1-0.7)=0.3

Rm(2,3)=(0.7∧0.7)∨(1-0.7)=0.7

Rm(2,4)=(0.7∧0.9)∨(1-0.7)=0.7

Rm(3,1)=(0.4∧0)∨(1-0.4)=0.6

Rm(3,2)=(0.4∧0.3)∨(1-0.4)=0.6

Rm(3,3)=(0.4∧0.7)∨(1-0.4)=0.6

Rm(3,4)=(0.4∧0.9)∨(1-0.4)=0.6

Rm(4,1)=(0∧0)∨(1-0)=1

Rm(4,2)=(0∧0.3)∨(1-0)=1

Rm(4,3)=(0∧0.7)∨(1-0)=1

Rm(3,4)=(0∧0.9)∨(1-0)=1

即:

因此有

即,模糊结论为

Y’={0.3,0.3,0.7,0.8}

6.16设

U=V=W={1,2,3,4}

且设有如下规则:

r1:

IFxisFTHENyisG

r2:

IFyisGTHENzisH

r3:

IFxisFTHENzisH

其中,F、G、H的模糊集分别为:

F=1/1+0.8/2+0.5/3+0.4/4

G=0.1/2+0.2/3+0.4/4

H=0.2/2+0.5/3+0.8/4

请分别对各种模糊关系验证满足模糊三段论的情况。

解:

本题的解题思路是:

由模糊集F和G求出r1所表示的模糊关系R1m,R1c,R1g

再由模糊集G和H求出r2所表示的模糊关系R2m,R2c,R2g

再由模糊集F和H求出r3所表示的模糊关系R3m,R3c,R3g

然后再将R1m,R1c,R1g分别与R2m,R2c,R2g合成得R12m,R12c,R12g

最后将R12m,R12c,R12g分别与R3m,R3c,R3g比较

第7章机器学习参考答案

7-6设训练例子集如下表所示:

序号

属性

分类

x1

x2

1

T

T

+

2

T

T

+

3

T

F

-

4

F

F

+

5

F

T

_

6

F

T

_

请用ID3算法完成其学习过程。

解:

设根节点为S,尽管它包含了所有的训练例子,但却没有包含任何分类信息,因此具有最大的信息熵。

即:

H(S)=-(P(+)log2P(+)+P(-)log2P(-))

式中

P(+)=3/6,P(-)=3/6

分别是决策方案为“+”或“-”时的概率。

因此有

H(S)=-((3/6)log2(3/6)+(3/6)log2(3/6))

=1

按照ID3算法,需要选择一个能使S的期望熵为最小的一个属性对根节点进行扩展,因此我们需要先计算S关于每个属性的条件熵:

H(S|xi)=(|ST|/|S|)*H(ST)+(|SF|/|S|)*H(SF)

其中,T和F为属性xi的属性值,ST和SF分别为xi=T或xi=F时的例子集,|S|、|ST|和|SF|分别为例子集S、ST和SF的大小。

下面先计算S关于属性x1的条件熵:

在本题中,当x1=T时,有:

ST={1,2,3}

当x1=F时,有:

SF={4,5,6}

其中,ST和SF中的数字均为例子集S中的各个例子的序号,且有|S|=6,|ST|=|SF|=3。

由ST可知,其决策方案为“+”或“-”的概率分别是:

    PST(+)=2/3

PST(-)=1/3

因此有:

H(ST)=-(PST(+)log2PST(+)+PST(-)log2PST(-))

=-((2/3)log2(2/3)+(1/3)log2(1/3))

=0.9183

再由SF可知,其决策方案为“+”或“-”的概率分别是:

    PSF(+)=1/3

PSF(-)=2/3

则有:

H(SF)=-(PSF(+)log2PSF(+)+PSF(-)log2PSF(-))

=-((1/3)log2(1/3)+(2/3)log2(2/3))

=0.9183

将H(ST)和H(SF)代入条件熵公式,有:

H(S|x1)=(|ST|/|S|)H(ST)+(|SF|/|S|)H(SF)

=(3/6)﹡0.9183+(3/6)﹡0.9183

=0.9183

下面再计算S关于属性x2的条件熵:

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > PPT模板 > 其它模板

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1