第二章课后习题与答案Word格式文档下载.docx
《第二章课后习题与答案Word格式文档下载.docx》由会员分享,可在线阅读,更多相关《第二章课后习题与答案Word格式文档下载.docx(19页珍藏版)》请在冰豆网上搜索。
(1)每个学生都有一台计算机。
(2)高老师从3月到7月给计算机系学生讲《计算机网络》课。
解:
(3)学习班的学员有男、有女、有研究生、有本科生。
参例2.14
(4)创新公司在科海大街56号,刘洋是该公司的经理,他32岁、硕士学位。
参例2.10
(5)红队与蓝队进行足球比赛,最后以3:
2的比分结束。
2.19请把下列命题用一个语义网络表示出来:
(1)树和草都是植物;
(2)树和草都有叶和根;
(3)水草是草,且生长在水中;
(4)果树是树,且会结果;
(5)梨树是果树中的一种,它会结梨。
第5章计算智能部分参考答案
5.15对遗传法的选择操作:
设种群规模为4,个体采用二进制编码,适应度函数为f(x)=x2,初始种群情况如下表所示:
编号
个体串
x
适应值
百分比
累计百分比
选中次数
S01
1010
10
S02
0100
4
S03
1100
12
S04
0111
7
若规定选择概率为100%,选择算法为轮盘赌算法,且依次生成的4个随机数为0.42,0.16,0.89,0.71,请填写上表中的全部内容,并求出经本次选择操作后所得到的新的种群。
表格的完整内容为:
100
32.36
1
16
5.18
37.54
144
44.60
84.14
2
49
15.86
本次选择后所得到的新的种群为:
S01=1100
S02=1010
S03=0111
S04=1100
5.18设某小组有5个同学,分别为S1,S2,S3,S4,S5。
若对每个同学的“学习好”程度打分:
S1:
95S2:
85S3:
80S4:
70S5:
90
这样就确定了一个模糊集F,它表示该小组同学对“学习好”这一模糊概念的隶属程度,请写出该模糊集。
对模糊集为F,可表示为:
F=95/S1+85/S2+80/S3+70/S4+90/S5
或
F={95/S1,85/S2,80/S3,70/S4,90/S5}
5.19设有论域
U={u1,u2,u3,u4,u5}
并设F、G是U上的两个模糊集,且有
F=0.9/u1+0.7/u2+0.5/u3+0.3/u4
G=0.6/u3+0.8/u4+1/u5
请分别计算F∩G,F∪G,﹁F。
F∩G=(0.9∧0)/u1+(0.7∧0)/u2+(0.5∧0.6)/u3+(0.3∧0.8)/u4+(0∧1)/u5
=0/u1+0/u2+0.5/u3+0.3/u4+0/u5
=0.5/u3+0.3/u4
F∪G=(0.9∨0)/u1+(0.7∨0)/u2+(0.5∨0.6)/u3+(0.3∨0.8)/u4+(0∨1)/u5
=0.9/u1+0.7/u2+0.6/u3+0.8/u4+1/u5
﹁F=(1-0.9)/u1+(1-0.7)/u2+(1-0.5)/u3+(1-0.3)/u4+(1-0)/u5
=0.1/u1+0.3/u2+0.5/u3+0.7/u4+1/u5
5.21设有如下两个模糊关系:
请写出R1与R2的合成R1οR2。
R(1,1)=(0.3∧0.2)∨(0.7∧0.6)∨(0.2∧0.9)=0.2∨0.6∨0.2=0.6
R(1,2)=(0.3∧0.8)∨(0.7∧0.4)∨(0.2∧0.1)=0.3∨0.4∨0.1=0.4
R(2,1)=(1∧0.2)∨(0∧0.6)∨(0.4∧0.9)=0.2∨0∨0.4=0.4
R(2,2)=(1∧0.8)∨(0∧0.4)∨(0.4∧0.1)=0.8∨0∨0.1=0.8
R(3,1)=(0∧0.2)∨(0.5∧0.6)∨(1∧0.9)=0.2∨0.6∨0.9=0.9
R(3,2)=(0∧0.8)∨(0.5∧0.4)∨(1∧0.1)=0∨0.4∨0.1=0.4
因此有
5.22设F是论域U上的模糊集,R是U×
V上的模糊关系,F和R分别为:
求模糊变换FοR。
={0.1∨0.4∨0.6,0.3∨0.6∨0.3,0.4∨0.6∨0}
={0.6,0.6,0.6}
第6章不确定性推理部分参考答案
6.8设有如下一组推理规则:
r1:
IFE1THENE2(0.6)
r2:
IFE2ANDE3THENE4(0.7)
r3:
IFE4THENH(0.8)
r4:
IFE5THENH(0.9)
且已知CF(E1)=0.5,CF(E3)=0.6,CF(E5)=0.7。
求CF(H)=?
(1)先由r1求CF(E2)
CF(E2)=0.6×
max{0,CF(E1)}
=0.6×
max{0,0.5}=0.3
(2)再由r2求CF(E4)
CF(E4)=0.7×
max{0,min{CF(E2),CF(E3)}}
=0.7×
max{0,min{0.3,0.6}}=0.21
(3)再由r3求CF1(H)
CF1(H)=0.8×
max{0,CF(E4)}
=0.8×
max{0,0.21)}=0.168
(4)再由r4求CF2(H)
CF2(H)=0.9×
max{0,CF(E5)}
=0.9×
max{0,0.7)}=0.63
(5)最后对CF1(H)和CF2(H)进行合成,求出CF(H)
CF(H)=CF1(H)+CF2(H)+CF1(H)×
CF2(H)
=0.692
6.10
设有如下推理规则
IFE1THEN(2,0.00001)H1
IFE2THEN(100,0.0001)H1
IFE3THEN(200,0.001)H2
IFH1THEN(50,0.1)H2
且已知P(E1)=P(E2)=P(H3)=0.6,P(H1)=0.091,P(H2)=0.01,又由用户告知:
P(E1|S1)=0.84,P(E2|S2)=0.68,P(E3|S3)=0.36
请用主观Bayes方法求P(H2|S1,S2,S3)=?
(1)由r1计算O(H1|S1)
先把H1的先验概率更新为在E1下的后验概率P(H1|E1)
P(H1|E1)=(LS1×
P(H1))/((LS1-1)×
P(H1)+1)
=(2×
0.091)/((2-1)×
0.091+1)
=0.16682
由于P(E1|S1)=0.84>
P(E1),使用P(H|S)公式的后半部分,得到在当前观察S1下的后验概率P(H1|S1)和后验几率O(H1|S1)
P(H1|S1)=P(H1)+((P(H1|E1)–P(H1))/(1-P(E1)))×
(P(E1|S1)–P(E1))
=0.091+(0.16682–0.091)/(1–0.6))×
(0.84–0.6)
=0.091+0.18955×
0.24=0.136492
O(H1|S1)=P(H1|S1)/(1-P(H1|S1))
=0.15807
(2)由r2计算O(H1|S2)
先把H1的先验概率更新为在E2下的后验概率P(H1|E2)
P(H1|E2)=(LS2×
P(H1))/((LS2-1)×
=(100×
0.091)/((100-1)×
=0.90918
由于P(E2|S2)=0.68>
P(E2),使用P(H|S)公式的后半部分,得到在当前观察S2下的后验概率P(H1|S2)和后验几率O(H1|S2)
P(H1|S2)=P(H1)+((P(H1|E2)–P(H1))/(1-P(E2)))×
(P(E2|S2)–P(E2))
=0.091+(0.90918–0.091)/(1–0.6))×
(0.68–0.6)
=0.25464
O(H1|S2)=P(H1|S2)/(1-P(H1|S2))
=0.34163
(3)计算O(H1|S1,S2)和P(H1|S1,S2)
先将H1的先验概率转换为先验几率
O(H1)=P(H1)/(1-P(H1))=0.091/(1-0.091)=0.10011
再根据合成公式计算H1的后验几率
O(H1|S1,S2)=(O(H1|S1)/O(H1))×
(O(H1|S2)/O(H1))×
O(H1)
=(0.15807/0.10011)×
(0.34163)/0.10011)×
0.10011
=0.53942
再将该后验几率转换为后验概率
P(H1|S1,S2)=O(H1|S1,S2)/(1+O(H1|S1,S2))
=0.35040
(4)由r3计算O(H2|S3)
先把H2的先验概率更新为在E3下的后验概率P(H2|E3)
P(H2|E3)=(LS3×
P(H2))/((LS3-1)×
P(H2)+1)
=(200×
0.01)/((200-1)×
0.01+1)
=0.09569
由于P(E3|S3)=0.36<
P(E3),使用P(H|S)公式的前半部分,得到在当前观察S3下的后验概率P(H2|S3)和后验几率O(H2|S3)
P(H2|S3)=P(H2|¬
E3)+(P(H2)–P(H2|¬
E3))/P(E3))×
P(E3|S3)
由当E3肯定不存在时有
P(H2|¬
E3)=LN3×
P(H2)/((LN3-1)×
P(H2)+1)
=0.001×
0.01/((0.001-1)×
0.01+1)
=0.00001
P(H2|S3)=P(H2|¬
P(E3|S3)
=0.00001+((0.01-0.00001)/0.6)×
0.36
=0.00600
O(H2|S3)=P(H2|S3)/(1-P(H2|S3))
=0.00604
(5)由r4计算O(H2|H1)
先把H2的先验概率更新为在H1下的后验概率P(H2|H1)
P(H2|H1)=(LS4×
P(H2))/((LS4-1)×
=(50×
0.01)/((50-1)×
=0.33557
由于P(H1|S1,S2)=0.35040>
P(H1),使用P(H|S)公式的后半部分,得到在当前观察S1,S2下H2的后验概率P(H2|S1,S2)和后验几率O(H2|S1,S2)
P(H2|S1,S2)=P(H2)+((P(H2|H1)–P(H2))/(1-P(H1)))×
(P(H1|S1,S2)–P(H1))
=0.01+(0.33557–0.01)/(1–0.091))×
(0.35040–0.091)
=0.10291
O(H2|S1,S2)=P(H2|S1,S2)/(1-P(H2|S1,S2))
=0.10291/(1-0.10291)=0.11472
(6)计算O(H2|S1,S2,S3)和P(H2|S1,S2,S3)
先将H2的先验概率转换为先验几率
O(H2)=P(H2)/(1-P(H2))=0.01/(1-0.01)=0.01010
O(H2|S1,S2,S3)=(O(H2|S1,S2)/O(H2))×
(O(H2|S3)/O(H2))×
O(H2)
=(0.11472/0.01010)×
(0.00604)/0.01010)×
0.01010
=0.06832
P(H2|S1,S2,S3)=O(H1|S1,S2,S3)/(1+O(H1|S1,S2,S3))
=0.06832/(1+0.06832)=0.06395
可见,H2原来的概率是0.01,经过上述推理后得到的后验概率是0.06395,它相当于先验概率的6倍多。
6.11设有如下推理规则
IFE1THEN(100,0.1)H1
IFE2THEN(50,0.5)H2
IFE3THEN(5,0.05)H3
且已知P(H1)=0.02,P(H2)=0.2,P(H3)=0.4,请计算当证据E1,E2,E3存在或不存在时P(Hi|Ei)或P(Hi|﹁Ei)的值各是多少(i=1,2,3)?
(1)当E1、E2、E3肯定存在时,根据r1、r2、r3有
P(H1|E1)=(LS1×
=(100×
0.02)/((100-1)×
0.02+1)
=0.671
P(H2|E2)=(LS2×
P(H2))/((LS2-1)×
=(50×
0.2)/((50-1)×
0.2+1)
=0.9921
P(H3|E3)=(LS3×
P(H3))/((LS3-1)×
P(H3)+1)
=(5×
0.4)/((5-1)×
0.4+1)
=0.769
(2)当E1、E2、E3肯定存在时,根据r1、r2、r3有
P(H1|¬
E1)=(LN1×
P(H1))/((LN1-1)×
=(0.1×
0.02)/((0.1-1)×
=0.002
P(H2|¬
E2)=(LN2×
P(H2))/((LN2-1)×
=(0.5×
0.2)/((0.5-1)×
=0.111
P(H3|¬
E3)=(LN3×
P(H3))/((LN3-1)×
=(0.05×
0.4)/((0.05-1)×
=0.032
6.13设有如下一组推理规则:
IFE1ANDE2THENA={a}(CF={0.9})
IFE2AND(E3ORE4)THENB={b1,b2}(CF={0.8,0.7})
IFATHENH={h1,h2,h3}(CF={0.6,0.5,0.4})
IFBTHENH={h1,h2,h3}(CF={0.3,0.2,0.1})
且已知初始证据的确定性分别为:
CER(E1)=0.6,CER(E2)=0.7,CER(E3)=0.8,CER(E4)=0.9。
假设|Ω|=10,求CER(H)。
其推理过程参考例6.9
具体过程略
6.15设
U=V={1,2,3,4}
且有如下推理规则:
IFxis少THENyis多
其中,“少”与“多”分别是U与V上的模糊集,设
少=0.9/1+0.7/2+0.4/3
多=0.3/2+0.7/3+0.9/4
已知事实为
xis较少
“较少”的模糊集为
较少=0.8/1+0.5/2+0.2/3
请用模糊关系Rm求出模糊结论。
先用模糊关系Rm求出规则
所包含的模糊关系Rm
Rm(1,1)=(0.9∧0)∨(1-0.9)=0.1
Rm(1,2)=(0.9∧0.3)∨(1-0.9)=0.3
Rm(1,3)=(0.9∧0.7)∨(1-0.9)=0.7
Rm(1,4)=(0.9∧0.9)∨(1-0.9)=0.7
Rm(2,1)=(0.7∧0)∨(1-0.7)=0.3
Rm(2,2)=(0.7∧0.3)∨(1-0.7)=0.3
Rm(2,3)=(0.7∧0.7)∨(1-0.7)=0.7
Rm(2,4)=(0.7∧0.9)∨(1-0.7)=0.7
Rm(3,1)=(0.4∧0)∨(1-0.4)=0.6
Rm(3,2)=(0.4∧0.3)∨(1-0.4)=0.6
Rm(3,3)=(0.4∧0.7)∨(1-0.4)=0.6
Rm(3,4)=(0.4∧0.9)∨(1-0.4)=0.6
Rm(4,1)=(0∧0)∨(1-0)=1
Rm(4,2)=(0∧0.3)∨(1-0)=1
Rm(4,3)=(0∧0.7)∨(1-0)=1
Rm(3,4)=(0∧0.9)∨(1-0)=1
即:
即,模糊结论为
Y’={0.3,0.3,0.7,0.8}
6.16设
U=V=W={1,2,3,4}
且设有如下规则:
r1:
IFxisFTHENyisG
r2:
IFyisGTHENzisH
r3:
IFxisFTHENzisH
其中,F、G、H的模糊集分别为:
F=1/1+0.8/2+0.5/3+0.4/4
G=0.1/2+0.2/3+0.4/4
H=0.2/2+0.5/3+0.8/4
请分别对各种模糊关系验证满足模糊三段论的情况。
本题的解题思路是:
由模糊集F和G求出r1所表示的模糊关系R1m,R1c,R1g
再由模糊集G和H求出r2所表示的模糊关系R2m,R2c,R2g
再由模糊集F和H求出r3所表示的模糊关系R3m,R3c,R3g
然后再将R1m,R1c,R1g分别与R2m,R2c,R2g合成得R12m,R12c,R12g
最后将R12m,R12c,R12g分别与R3m,R3c,R3g比较
第7章机器学习参考答案
7-6设训练例子集如下表所示:
序号
属性
分类
x1
x2
T
+
3
F
-
5
_
6
请用ID3算法完成其学习过程。
设根节点为S,尽管它包含了所有的训练例子,但却没有包含任何分类信息,因此具有最大的信息熵。
H(S)=-(P(+)log2P(+)+P(-)log2P(-))
式中
P(+)=3/6,P(-)=3/6
分别是决策方案为“+”或“-”时的概率。
H(S)=-((3/6)log2(3/6)+(3/6)log2(3/6))
=1
按照ID3算法,需要选择一个能使S的期望熵为最小的一个属性对根节点进行扩展,因此我们需要先计算S关于每个属性的条件熵:
H(S|xi)=(|ST|/|S|)*H(ST)+(|SF|/|S|)*H(SF)
其中,T和F为属性xi的属性值,ST和SF分别为xi=T或xi=F时的例子集,|S|、|ST|和|SF|分别为例子集S、ST和SF的大小。
下面先计算S关于属性x1的条件熵:
在本题中,当x1=T时,有:
ST={1,2,3}
当x1=F时,有:
SF={4,5,6}
其中,ST和SF中的数字均为例子集S中的各个例子的序号,且有|S|=6,|ST|=|SF|=3。
由ST可知,其决策方案为“+”或“-”的概率分别是:
PST(+)=2/3
PST(-)=1/3
因此有:
H(ST)=-(PST(+)log2PST(+)+PST(-)log2PST(-))
=-((2/3)log2(2/3)+(1/3)log2(1/3))
=0.9183
再由SF可知,其决策方案为“+”或“-”的概率分别是:
PSF(+)=1/3
PSF(-)=2/3
则有:
H(SF)=-(PSF(+)log2PSF(+)+PSF(-)log2PSF(-))
=-((1/3)log2(1/3)+(2/3)log2(2/3))
将H(ST)和H(SF)代入条件熵公式,有:
H(S|x1)=(|ST|/|S|)H(ST)+(|SF|/|S|)H(SF)
=(3/6)﹡0.9183+(3/6)﹡0.9183
下面再计算S关于属性x2的条件熵:
在本