人工智能教程习题及答案第4章习题参考解答.docx
《人工智能教程习题及答案第4章习题参考解答.docx》由会员分享,可在线阅读,更多相关《人工智能教程习题及答案第4章习题参考解答.docx(15页珍藏版)》请在冰豆网上搜索。
![人工智能教程习题及答案第4章习题参考解答.docx](https://file1.bdocx.com/fileroot1/2022-11/27/6f0ac01b-9b74-43bb-acba-ca04bed5a8ab/6f0ac01b-9b74-43bb-acba-ca04bed5a8ab1.gif)
人工智能教程习题及答案第4章习题参考解答
第四章不确定性推理习题参考解答
4.1练习题
4.1什么是不确定性推理?
有哪几类不确定性推理方法?
不确定性推理中需要解决的基本问题有哪些?
4.2什么是可信度?
由可信度因子CF(H,E)的定义说明它的含义。
4.3什么是信任增长度?
什么是不信任增长度?
根据定义说明它们的含义。
4.4当有多条证据支持一个结论时,什么情况下使用合成法求取结论的可信度?
什么情况下使用更新法求取结论可信度?
试说明这两种方法实际是一致的。
4.5设有如下一组推理规则:
r1:
IFE1THENE2(0.6)
r2:
IFE2ANDE3THENE4(0.8)
r3:
IFE4THENH(0.7)
r4:
IFE5THENH(0.9)
且已知CF(E1)=0.5,CF(E3)=0.6,CF(E5)=0.4,结论H的初始可信度一无所知。
求CF(H)=?
4.6已知:
规则可信度为
r1:
IFE1THENH1(0.7)
r2:
IFE2THENH1(0.6)
r3:
IFE3THENH1(0.4)
r4:
IF(H1ANDE4)THENH2(0.2)
证据可信度为
CF(E1)=CF(E2)=CF(E3)=CF(E4)=CF(E5)=0.5
H1的初始可信度一无所知,H2的初始可信度CF0(H2)=0.3
计算结论H2的可信度CF(H2)。
4.7设有三个独立的结论H1,H2,H3及两个独立的证据E1与E2,它们的先验概率和条件概率分别为
P(H1)=0.4,P(H2)=0.3,P(H3)=0.3
P(E1/H1)=0.5,P(E1/H2)=0.6,P(E1/H3)=0.3
P(E2/H1)=0.7,P(E2/H2)=0.9,P(E2/H3)=0.1
利用基本Bayes方法分别求出:
(1)当只有证据E1出现时,P(H1/E1),P(H2/E1),P(H3/E1)的值各为多少?
这说明了什么?
(2)当E1和E2同时出现时,P(H1/E1E2),P(H2/E1E2),P(H3/E1E2)的值各是多少?
这说明了什么?
4.8在主观Bayes方法中,请说明LS与LN的意义。
4.9设有如下推理规则:
r1:
IFE1THEN(2,0.0001)H1
r2:
IFE2THEN(100,0.0001)H1
r3:
IFE3THEN(200,0.001)H2
r4:
IFH1THEN(50,0.01)H2
且已知O(H1)=0.1,O(H2)=0.01,又由用户告知:
C(E1/S1)=3,C(E2/S2)=1,C(E3/S3)=2
请用主观Bayes方法求O(H2/S1,S2,S3)=?
4.10如下推理规则:
r1:
IFE1THEN(100,0.1)H1
r2:
IFE2THEN(15,1)H2
r3:
IFE3THEN(1,0.05)H3
且已知P(H1)=0.02,P(H2)=0.4,P(H3)=0.06。
当证据E1,E2,E3存在或不存在时,P(Hi/Ei)或P(Hi/~Ei)各是多少(i=1,2,3)?
4.11有如下知识:
r1:
IFE1THEN(2,0.01)H
r2:
IFE2THEN(20,1)H
r3:
IFE3THEN(65,1)H
r4:
IFE4THEN(3,1)H
已知:
结论H的先验概率P(H)=0.06。
当证据E1,E2,E3,E4必然发生后,试分别用结论不确定性的合成算法和更新算法计算结论H的概率变化。
4.12请说明概率分配函数、信任函数、似然函数的含义。
4.13概率分配函数与概率相同吗?
为什么?
4.14为什么要设定一个特定的概率分配函数?
在该特定概率分配函数下的不确定性推理模型有何特点?
4.15设样本空间D={a,b,c,d},M1,M2为定义在
上的概率分配函数:
M1:
M1({b,c,d})=0.7,M1({a,b,c,d})=0.3,M1的其余基本概率数均为0;
M2:
M2({a,b})=0.6,M2({a,b,c,d})=0.4,M2的其余基本概率数均为0;
求它们的正交和M=M1
M2。
4.16设有下列知识:
IFE1THENH={h1,h2,h3}(CF={0.2,0.4,0.1})
IFE2THENH={h1,h2,h3}(CF={0.1,0.3,0.4})
且已知初始证据的信任度分别为:
f(E1)=0.53,F(E2)=0.49。
如果|D|=15,求结论H的信任度f(H)。
4.17设有如下推理规则:
r1:
IFE1ANDE2THENK={kl,k2}(CF={0.2,0.7})
r2:
IFKANDE3THENA={a1,a2}(CF={0.4,0.5})
r3:
IFE4AND(E5ORE6)THENB={b1}(CF={0.7})
r4:
IFATHENH={h1,h2,h3}(CF={0.2,0.6,0.1})
r5:
IFBTHENH={h1,h2,h3}(CF={0.3,0.2,0.1})
已知初始证据的信任度分别为
f(E1)=0.7,f(E2)=0.6,f(E3)=0.5,f(E4)=0.8,f(E5)=0.5,f(E6)=0.7
假设|D|=10,求结论H的信任度f(H)=?
4.2习题参考解答
4.1答:
(略)
4.2答:
所谓可信度就是人们在实际生活中根据自己的经验或观察对某一事件或现象为真的相信程度。
可信度因子CF(H,E)用来表示一条知识的可信度或规则强度。
它的含义就是表示由于证据E的出现使结论H为真的可信度是增加了还是减少了,如果是增加了,则CF(H,E)>0,并且CF(H,E)的值越大,说明结论为真的可信度越大;相反,如果证据E的出现,使结论H为假的可信度增加了,则使CF(H,E)<0,并且CF(H,E)的值越小,说明结论为假的可信度越大;若证据的出现与否和H无关,则使CF(H,E)=0。
4.3答:
在专家系统MYCIN中,CF(H,E)被定义为
CF(H,E)=MB(H,E)-MD(H,E)
其中,MB(Measurebelief)称为信任增长度,它表示因与前提条件E匹配的证据的出现,使结论H为真的信任增长度。
MD(MeasureDisbelief)称为不信任增长度,它表示因与前提条件E匹配的证据的出现,对结论H为真的不信任增长度。
4.4解:
(略)
4.5解:
由于对H的初始可信度一无所知,所以使用合成算法进行计算。
由题意得到推理网络如图4.11所示。
图4.11
(1)由规则r1,计算E2的可信度
:
(2)由规则r2,计算E4的可信度
:
(3)由规则r3、r4分别计算CF(H):
(4)利用合成算法计算结论H的综合可信度:
所以,求得结论H的可信度更新值为
CF(H)=0.4675
4.6解:
由题意得到推理网络如图4.12所示。
由于对
的初始可信度一无所知,所以可以利用规则r1、r2、r3和合成法来求H1的可信度。
图4.12
(a)由规则r1、r2、r3,分别计算
:
(b)利用合成算法计算H1的综合可信度:
(c)计算
的可信度
,这时,由于已知H2的初始可信度,计算采用更新法。
由规则r4和公式(4.5)可知:
所以,所求得的H2的可信度更新值为
4.7解:
(1)当有一个证据E1时,根据Bayes公式可得
同理可得:
P(H2/E1)=0.18/0.47=0.383
P(H3/E1)=0.09/0.47=0.191
这说明,由于证据E1的出现,H1和H2成立的可能性有所增加,而H3成立的可能性有所下降。
(2)当证据E1、E2同时出现时,根据多证据情况下的Bayes公式可得:
=0.45
同理可得:
P(H2/E1E2)=0.52
P(H3/E1E2)=0.03
这说明,由于证据E1和E2的出现,H1和H2成立的可能性有不同程度的增加,而H3成立的可能性则有了较大幅度的下降。
4.8答:
在主观Bayes方法中,LS表示规则成立的充分性,LN表示规则成立的必要性。
当LS>1时,说明由于证据E的出现,将增大结论H为真的概率,而且LS越大,P(H/E)就越大,即E对H为真的支持越强。
当LS→∞时,P(H/E)→1,表明由于证据E的出现,将导致H为真。
由此可见,E的出现对H为真是充分的,故称LS为充分性量度。
当LN<1时,说明由于证据E不出现,将使H为真的可能性下降,或者说由于证据E不出现,将反对H为真。
由此可以看出E对H为真的必要性。
当LN=0时,说明证据E将不会出现,它将导致H为假。
由此也可看出E对H为真的必要性,故称LN为必要性量度。
在实际系统中,LS和LN的值均是由领域专家根据经验给出的。
当证据E愈是支持H为真时,则LS的值应该愈大;当证据E对H愈是重要时,则相应的LN的值应该愈小。
4.9解:
本题的求解参见例4.12。
4.10解:
当E1,E2,E3存在时,依据规则r1、r2、r3有:
当E1,E2,E3不存在时,依据规则r1、r2、r3有:
4.11解:
本题的求解参见例4.9。
4.12解:
在D-S理论中,信任函数Bel(A)和似然函数Pl(A)是用来对命题A的不确定性进行度量的。
信任函数Bel(A)表示对命题A为真的信任程度,而似然函数Pl(A)表示对A为非假的信任程度。
它们分别表示对命题A信任程度的下限和上限。
引入概率分配函数,完全是为了定义信任函数和似然函数,以便实现对命题A的不确定性的度量。
也就是说信任函数和似然函数的定义是依赖于概率分配函数的,概率分配函数是对一个命题的不确定性度量的基础。
4.13答:
概率分配函数不同于概率。
因为在一个样本空间D上,各子集的概率分配函数值可能是人为分配指定的,样本空间D中各元素的基本概率数之和不一定等于1。
4.14答:
在D-S理论中,不确定性推理是依赖于信任函数和似然函数的,而信任函数和似然函数则是以概率分配函数为基础的。
不同的概率分配函数,就会导致不同的信任函数和似然函数,因而也就会产生不同的推理模型。
既然推理模型是建立在概率分配函数的基础上,因此所选取的概率分配函数之复杂性,就直接影响着推理模型的复杂性,进而影响着不确定性计算的复杂性。
为了简化不确定性的推理模型,故有必要建立一个特定的概率分配函数。
在D-S理论中,所定义的特定概率分配函数具有以下特性:
只有单个元素构成的子集和样本空间D本身的基本概率数才有可能大于0,其它子集的基本概率数均为0。
4.15解:
已知M1和M2是两个概率分配函数,则它们的正交和
为
这里,由于概率分配函数M1和M2分别定义为:
M1:
M1({b,c,d})=0.7,M1({a,b,c,d})=0.3,M1的其余基本概率数均为0;
M2:
M2({a,b})=0.6,M2({a,b,c,d})=0.4,M2的其余基本概率数均为0;
所以,
这时:
M({b})=
=0.6×0.7=0.42
M({a,b})=
=0.3×0.6=0.18
M({b,c,d})=
=0.7×0.4=0.28
M({a,b,c,d})=
=0.3×0.4=0.12
所以,所求得的正交和M为:
M:
M({b})=0.42,M({a,b})=0.18,M({b,c,d})=0.28M({a,b,c,d})=0.12,M的其余基本概率数均为0。
4.16解:
由题意,这时由两条知识同时支持同一个结论,可画出如图4.13所示的推理网络。
图4.13
(a)计算结论H的概率分配函数。
由于有两条知识支持同一个结论,因而分别对每条知识,计算结论H的概率分配函数,然后利用正交和求出结论的H的总概率分配函数:
下面求M1与M2的正交和M:
得
(b)计算结论H的信任函数及似然函数值:
(c)求结论H的信任度
:
4.17解:
由已给的推理规则,可以形成如图4.14所示的推理网络。
图4.14
(a)求
由规则r2可知,要计算A的信任度f(A),应首先计算K的信任度f(K)。
由规则R1,计算f(K):
计算K的概率分配函数
计算K的信任函数和似然函数。
计算K的信任度。
再由规则R2,计算f(A):
计算A的信任函数和似然函数。
计算A的信任度。
(b)求B的信任度
计算B的概率分配函数。
由规则R3:
计算B的信任函数和似然函数。
计算B的信任度。
(c)求f(H)
首先,求H的概率分配函数。
因为H是规则R4和R5的共同结论,所以为了求得H的概率分配函数,则必须对规则R4和R5分别求出的概率分配函数再做正交和,才能求得H的概率分配函数。
对于R4,其概率分配函数为
对于R5其概率分配函数为
下面求M4与M5的正交和M:
求H的信任函数值及似然函数值
。
求H的信任度
。
这就求得了结论H的信任度
。