ImageVerifierCode 换一换
格式:DOCX , 页数:22 ,大小:78.17KB ,
资源ID:12208475      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/12208475.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(第二章课后习题与答案.docx)为本站会员(b****4)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

第二章课后习题与答案.docx

1、第二章课后习题与答案第2章 人工智能与知识工程初步 1. 设有如下语句,请用相应的谓词公式分别把他们表示出来:s(1) 有的人喜欢梅花,有的人喜欢菊花,有的人既喜欢梅花又喜欢菊花 。解:定义谓词dP(x):x是人L(x,y):x喜欢y其中,y的个体域是梅花,菊花。将知识用谓词表示为:(x )(P(x)L(x, 梅花)L(x, 菊花)L(x, 梅花)L(x, 菊花)(2) 有人每天下午都去打篮球。解:定义谓词P(x):x是人B(x):x打篮球A(y):y是下午将知识用谓词表示为:a(x )(y) (A(y)B(x)P(x)(3) 新型计算机速度又快,存储容量又大。解:定义谓词NC(x):x是新型

2、计算机F(x):x速度快 B(x):x容量大将知识用谓词表示为:(x) (NC(x)F(x)B(x)(4) 不是每个计算机系的学生都喜欢在计算机上编程序。解:定义谓词S(x):x是计算机系学生L(x, pragramming):x喜欢编程序U(x,computer):x使用计算机将知识用谓词表示为: (x) (S(x)L(x, pragramming)U(x,computer)(5) 凡是喜欢编程序的人都喜欢计算机。解:定义谓词P(x):x是人L(x, y):x喜欢y将知识用谓词表示为:(x) (P(x)L(x,pragramming)L(x, computer)2 请对下列命题分别写出它们的

3、语义网络:(1) 每个学生都有一台计算机。解:(2) 高老师从3月到7月给计算机系学生讲计算机网络课。 解:(3) 学习班的学员有男、有女、有研究生、有本科生。 解:参例2.14(4) 创新公司在科海大街56号,刘洋是该公司的经理,他32岁、硕士学位。 解:参例2.10(5) 红队与蓝队进行足球比赛,最后以3:2的比分结束。 解:2.19 请把下列命题用一个语义网络表示出来:(1) 树和草都是植物;解:(2) 树和草都有叶和根; 解:(3) 水草是草,且生长在水中; 解:(4) 果树是树,且会结果; 解:(5) 梨树是果树中的一种,它会结梨。 解:第5章 计算智能部分参考答案5.15 对遗传法

4、的选择操作:设种群规模为4,个体采用二进制编码,适应度函数为 f(x)=x2,初始种群情况如下表所示:编号个体串x适应值百分比累计百分比选中次数S01101010S0201004S03110012S0401117若规定选择概率为100%,选择算法为轮盘赌算法,且依次生成的4个随机数为0.42, 0.16, 0.89, 0.71,请填写上表中的全部内容,并求出经本次选择操作后所得到的新的种群。解:表格的完整内容为:编号个体串x适应值百分比累计百分比选中次数S0110101010032.3632.361S0201004165.1837.540S0311001214444.6084.142S0401

5、1174915.861001本次选择后所得到的新的种群为: S01=1100 S02=1010 S03=0111 S04=11005.18 设某小组有5个同学,分别为S1,S2,S3,S4,S5。若对每个同学的“学习好”程度打分: S1:95 S2:85 S3:80 S4:70 S5:90这样就确定了一个模糊集F,它表示该小组同学对“学习好”这一模糊概念的隶属程度,请写出该模糊集。 解:对模糊集为F,可表示为: F=95/ S1+85/S2+80/ S3+70/S4+90/S5或 F=95/ S1, 85/S2, 80/ S3, 70/S4, 90/S5 5.19 设有论域 U=u1, u2,

6、 u3, u4, u5并设F、G是U上的两个模糊集,且有 F=0.9/u1+0.7/u2+0.5/u3+0.3/u4 G=0.6/u3+0.8/u4+1/u5请分别计算 FG,FG,F。 解:FG=(0.90)/ u1+(0.70)/ u2+(0.50.6)/u3+(0.30.8)/u4+(01)/u5 =0/ u1+0/ u2+0.5/u3+0.3/u4+0/u5 =0.5/u3+0.3/u4FG=(0.90)/ u1+(0.70)/ u2+(0.50.6)/u3+(0.30.8)/u4+(01)/u5 =0.9/ u1+0.7/ u2+0.6/u3+0.8/u4+1/u5F=(1-0.9)

7、/ u1+(1-0.7)/ u2+(1-0.5)/u3+(1-0.3)/u4+(1-0)/u5 =0.1/ u1+0.3/ u2+0.5/u3+0.7/u4+1/u55.21设有如下两个模糊关系:请写出R1与R2的合成R1R2。 解:R(1,1)=(0.30.2)(0.70.6)(0.20.9)= 0.20.60.2=0.6R(1,2)=(0.30.8)(0.70.4)(0.20.1)= 0.30.40.1=0.4R(2,1)=(10.2)(00.6)(0.40.9)= 0.200.4=0.4R(2,2)=(10.8)(00.4)(0.40.1)= 0.800.1=0.8R(3,1)=(00.

8、2)(0.50.6)(10.9)= 0.20.60.9=0.9R(3,2)=(00.8)(0.50.4)(10.1)= 00.40.1=0.4因此有5.22 设F是论域U上的模糊集,R是UV上的模糊关系,F和R分别为:求模糊变换FR。 解: =0.10.40.6, 0.30.60.3,0.40.60 =0.6, 0.6, 0.6第6章 不确定性推理部分参考答案6.8 设有如下一组推理规则: r1: IF E1 THEN E2 (0.6) r2: IF E2 AND E3 THEN E4 (0.7) r3: IF E4 THEN H (0.8) r4: IF E5 THEN H (0.9)且已知

9、CF(E1)=0.5, CF(E3)=0.6, CF(E5)=0.7。求CF(H)=? 解:(1) 先由r1求CF(E2) CF(E2)=0.6 max0,CF(E1) =0.6 max0,0.5=0.3(2) 再由r2求CF(E4) CF(E4)=0.7 max0, minCF(E2 ), CF(E3 ) =0.7 max0, min0.3, 0.6=0.21(3) 再由r3求CF1(H)CF1(H)= 0.8 max0,CF(E4) =0.8 max0, 0.21)=0.168(4) 再由r4求CF2(H)CF2(H)= 0.9 max0,CF(E5) =0.9 max0, 0.7)=0.

10、63(5) 最后对CF1(H )和CF2(H)进行合成,求出CF(H) CF(H)= CF1(H)+CF2(H)+ CF1(H) CF2(H) =0.6926.10 设有如下推理规则 r1: IF E1 THEN (2, 0.00001) H1 r2: IF E2 THEN (100, 0.0001) H1 r3: IF E3 THEN (200, 0.001) H2 r4: IF H1 THEN (50, 0.1) H2且已知P(E1)= P(E2)= P(H3)=0.6, P(H1)=0.091, P(H2)=0.01, 又由用户告知: P(E1| S1)=0.84, P(E2|S2)=0

11、.68, P(E3|S3)=0.36请用主观Bayes方法求P(H2|S1, S2, S3)=? 解:(1) 由r1计算O(H1| S1) 先把H1的先验概率更新为在E1下的后验概率P(H1| E1) P(H1| E1)=(LS1 P(H1) / (LS1-1) P(H1)+1) =(2 0.091) / (2 -1) 0.091 +1) =0.16682 由于P(E1|S1)=0.84 P(E1),使用P(H | S)公式的后半部分,得到在当前观察S1下的后验概率P(H1| S1)和后验几率O(H1| S1) P(H1| S1) = P(H1) + (P(H1| E1) P(H1) / (1

12、 - P(E1) (P(E1| S1) P(E1) = 0.091 + (0.16682 0.091) / (1 0.6) (0.84 0.6) =0.091 + 0.18955 0.24 = 0.136492 O(H1| S1) = P(H1| S1) / (1 - P(H1| S1) = 0.15807 (2) 由r2计算O(H1| S2) 先把H1的先验概率更新为在E2下的后验概率P(H1| E2) P(H1| E2)=(LS2 P(H1) / (LS2-1) P(H1)+1) =(100 0.091) / (100 -1) 0.091 +1) =0.90918 由于P(E2|S2)=0

13、.68 P(E2),使用P(H | S)公式的后半部分,得到在当前观察S2下的后验概率P(H1| S2)和后验几率O(H1| S2) P(H1| S2) = P(H1) + (P(H1| E2) P(H1) / (1 - P(E2) (P(E2| S2) P(E2) = 0.091 + (0.90918 0.091) / (1 0.6) (0.68 0.6) =0.25464 O(H1| S2) = P(H1| S2) / (1 - P(H1| S2) =0.34163 (3) 计算O(H1| S1,S2)和P(H1| S1,S2) 先将H1的先验概率转换为先验几率O(H1) = P(H1)

14、/ (1 - P(H1) = 0.091/(1-0.091)=0.10011 再根据合成公式计算H1的后验几率 O(H1| S1,S2)= (O(H1| S1) / O(H1) (O(H1| S2) / O(H1) O(H1) = (0.15807 / 0.10011) (0.34163) / 0.10011) 0.10011 = 0.53942 再将该后验几率转换为后验概率P(H1| S1,S2) = O(H1| S1,S2) / (1+ O(H1| S1,S2) = 0.35040(4) 由r3计算O(H2| S3) 先把H2的先验概率更新为在E3下的后验概率P(H2| E3) P(H2|

15、 E3)=(LS3 P(H2) / (LS3-1) P(H2)+1) =(200 0.01) / (200 -1) 0.01 +1) =0.09569 由于P(E3|S3)=0.36 P(H1),使用P(H | S)公式的后半部分,得到在当前观察S1,S2下H2的后验概率P(H2| S1,S2)和后验几率O(H2| S1,S2) P(H2| S1,S2) = P(H2) + (P(H2| H1) P(H2) / (1 - P(H1) (P(H1| S1,S2) P(H1) = 0.01 + (0.33557 0.01) / (1 0.091) (0.35040 0.091) =0.10291

16、O(H2| S1,S2) = P(H2| S1, S2) / (1 - P(H2| S1, S2) =0.10291/ (1 - 0.10291) = 0.11472 (6) 计算O(H2| S1,S2,S3)和P(H2| S1,S2,S3) 先将H2的先验概率转换为先验几率O(H2) = P(H2) / (1 - P(H2) )= 0.01 / (1-0.01)=0.01010 再根据合成公式计算H1的后验几率 O(H2| S1,S2,S3)= (O(H2| S1,S2) / O(H2) (O(H2| S3) / O(H2) O(H2) = (0.11472 / 0.01010) (0.00

17、604) / 0.01010) 0.01010 =0.06832 再将该后验几率转换为后验概率P(H2| S1,S2,S3) = O(H1| S1,S2,S3) / (1+ O(H1| S1,S2,S3) = 0.06832 / (1+ 0.06832) = 0.06395 可见,H2原来的概率是0.01,经过上述推理后得到的后验概率是0.06395,它相当于先验概率的6倍多。6.11设有如下推理规则 r1: IF E1 THEN (100, 0.1) H1 r2: IF E2 THEN (50, 0.5) H2 r3: IF E3 THEN (5, 0.05) H3且已知P(H1)=0.02

18、, P(H2)=0.2, P(H3)=0.4,请计算当证据E1,E2,E3存在或不存在时P(Hi | Ei)或P(Hi |Ei)的值各是多少(i=1, 2, 3)? 解:(1) 当E1、E2、E3肯定存在时,根据r1、r2、r3有P(H1 | E1) = (LS1 P(H1) / (LS1-1) P(H1)+1) = (100 0.02) / (100 -1) 0.02 +1) =0.671P(H2 | E2) = (LS2 P(H2) / (LS2-1) P(H2)+1) = (50 0.2) / (50 -1) 0.2 +1) =0.9921P(H3 | E3) = (LS3 P(H3)

19、/ (LS3-1) P(H3)+1) = (5 0.4) / (5 -1) 0.4 +1) =0.769 (2) 当E1、E2、E3肯定存在时,根据r1、r2、r3有P(H1 | E1) = (LN1 P(H1) / (LN1-1) P(H1)+1) = (0.1 0.02) / (0.1 -1) 0.02 +1) =0.002P(H2 | E2) = (LN2 P(H2) / (LN2-1) P(H2)+1) = (0.5 0.2) / (0.5 -1) 0.2 +1) =0.111P(H3 | E3) = (LN3 P(H3) / (LN3-1) P(H3)+1) = (0.05 0.4)

20、 / (0.05 -1) 0.4 +1) =0.0326.13 设有如下一组推理规则: r1: IF E1 AND E2 THEN A=a (CF=0.9) r2: IF E2 AND (E3 OR E4) THEN B=b1, b2 (CF=0.8, 0.7) r3: IF A THEN H=h1, h2, h3 (CF=0.6, 0.5, 0.4) r4: IF B THEN H=h1, h2, h3 (CF=0.3, 0.2, 0.1)且已知初始证据的确定性分别为:CER(E1)=0.6, CER(E2)=0.7, CER(E3)=0.8, CER(E4)=0.9。假设|=10,求CER

21、(H)。 解:其推理过程参考例6.9 具体过程略6.15 设U=V=1,2,3,4且有如下推理规则: IF x is 少 THEN y is 多其中,“少”与“多”分别是U与V上的模糊集,设 少=0.9/1+0.7/2+0.4/3 多=0.3/2+0.7/3+0.9/4已知事实为 x is 较少“较少”的模糊集为 较少=0.8/1+0.5/2+0.2/3请用模糊关系Rm求出模糊结论。 解:先用模糊关系Rm求出规则 IF x is 少 THEN y is 多所包含的模糊关系Rm Rm (1,1)=(0.90)(1-0.9)=0.1 Rm (1,2)=(0.90.3)(1-0.9)=0.3 Rm

22、(1,3)=(0.90.7)(1-0.9)=0.7 Rm (1,4)=(0.90.9)(1-0.9)=0.7 Rm (2,1)=(0.70)(1-0.7)=0.3 Rm (2,2)=(0.70.3)(1-0.7)=0.3 Rm (2,3)=(0.70.7)(1-0.7)=0.7 Rm (2,4)=(0.70.9)(1-0.7)=0.7 Rm (3,1)=(0.40)(1-0.4)=0.6 Rm (3,2)=(0.40.3)(1-0.4)=0.6 Rm (3,3)=(0.40.7)(1-0.4)=0.6 Rm (3,4)=(0.40.9)(1-0.4)=0.6 Rm (4,1)=(00)(1-0

23、)=1 Rm (4,2)=(00.3)(1-0)=1 Rm (4,3)=(00.7)(1-0)=1 Rm (3,4)=(00.9)(1-0)=1即:因此有即,模糊结论为 Y=0.3, 0.3, 0.7, 0.86.16 设 U=V=W=1,2,3,4且设有如下规则: r1:IF x is F THEN y is G r2:IF y is G THEN z is H r3:IF x is F THEN z is H其中,F、G、H的模糊集分别为: F=1/1+0.8/2+0.5/3+0.4/4 G=0.1/2+0.2/3+0.4/4 H=0.2/2+0.5/3+0.8/4请分别对各种模糊关系验证

24、满足模糊三段论的情况。解:本题的解题思路是:由模糊集F和G求出r1所表示的模糊关系R1m, R1c, R1g再由模糊集G和H求出r2所表示的模糊关系R2m, R2c, R2g再由模糊集F和H求出r3所表示的模糊关系R3m, R3c, R3g 然后再将R1m, R1c, R1g分别与R2m, R2c, R2g合成得R12 m, R12c, R12g 最后将R12 m, R12c, R12g分别与R3m, R3c, R3g比较第7章 机器学习参考答案7-6 设训练例子集如下表所示:序号属性分类x1x21TT+2TT+3TF-4FF+5FT_6FT_请用ID3算法完成其学习过程。解:设根节点为S,尽

25、管它包含了所有的训练例子,但却没有包含任何分类信息,因此具有最大的信息熵。即:H(S)= - (P(+)log2 P(+) + P(-)log2 P(-)式中P(+)=3/6,P(-)=3/6分别是决策方案为“+”或“-”时的概率。因此有H(S)= - (3/6)log2(3/6) + (3/6)log2(3/6) =1按照ID3算法,需要选择一个能使S的期望熵为最小的一个属性对根节点进行扩展,因此我们需要先计算S关于每个属性的条件熵:H(S|xi)= ( |ST| / |S|)* H(ST) + ( |SF| / |S|)* H(SF)其中,T和F为属性xi的属性值,ST和SF分别为xi=T

26、或xi=F时的例子集,|S|、| ST|和|SF|分别为例子集S、ST和SF 的大小。下面先计算S关于属性x1的条件熵:在本题中,当x1=T时,有: ST=1,2,3当x1=F时,有: SF=4,5,6其中,ST 和SF中的数字均为例子集S中的各个例子的序号,且有|S|=6,| ST |=| SF |=3。由ST可知,其决策方案为“+”或“-”的概率分别是:PST(+)=2/3PST (-)=1/3因此有:H(ST)= - (PST (+)log2 PST (+) + PST (-)log2 PST (- )= - (2/3)log2(2/3) + (1/3)log2(1/3) =0.9183再由SF可知,其决策方案为“+”或“-”的概率分别是:PSF (+)=1/3PSF (-)=2/3则有:H (SF)= - (PSF (+)log2 PSF (+) + PSF (-)log2 PSF (- )= - (1/3)log2(1/3)+ (2/3)log2(2/3) =0.9183将H(ST)和H (SF)代入条件熵公式,有:H(S|x1)=(|ST|/|S|)H(ST)+ (|SF|/|S|)H(SF) =(3/6)0.9183 + (3/6)0.9183=0.9183下面再计算S关于属性x2的条件熵:

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1