ImageVerifierCode 换一换
格式:DOCX , 页数:15 ,大小:512.61KB ,
资源ID:16495394      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/16495394.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(山东大学人工智能复习带答案Word文档下载推荐.docx)为本站会员(b****4)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

山东大学人工智能复习带答案Word文档下载推荐.docx

1、其典型算法有蚁群算法蚂蚁觅食和粒子群算法蜂群或鸟群觅食。已有的群智能理论的研究和应用证明群智能方法是一种能够有效解决大多数优化问题的新方法。13、蚁群算法是模拟自然界中蚂蚁寻找从巢穴到食物的最正确路径的行为而设计的,蚂蚁在遇到食物返回的路上会分泌信息素,信息素会随着时间慢慢挥发,且关键路径上的信息素相对浓度高,蚁群算法已被广泛应用于许多优化问题中,其中有聚类问题、路由算法设计、图着色、车辆调度、机器人路径规划。14、粒子群优化算法是模拟鸟群或蜂群的觅食行为而设计的,其根本思想是通过群体中个体之间的协作和信息共享来寻找最优解。粒子群优化算法的应用领域有广泛应用于各类优化问题上、在军事领域中的应用

2、、对巡航导弹的飞行高度进展优化、车辆路径问题的应用、邮政投递、火车及汽车的调度、港口装卸集装箱。15、遗传算法是以达尔文的自然选择学说为根底开展起来的。遗传算法的三种根本操作是复制、穿插、变异;在遗传算法中,衡量个体优劣的尺度是适应度,它决定某些个体是繁殖或是消亡,同时也是驱动遗传算法的动力。16、蚁群算法是模拟自然界中蚂蚁寻找从巢穴到食物的最正确路径的行为而设计的,依据蚁群算法的根本原理,蚁群算法中的行为因子有觅食规那么、移动规那么、避障规那么、信息素规那么、围、环境等。17、近年有学着提出的人工鱼群算法Artificial Fish Swarm Algorithm-AFSA是模仿自然界中鱼

3、群的行为而提出来的解决问题的算法,从模拟鱼群的聚集行为、觅食行为、跟随行为和移动行为等方面来模拟自然界中的鱼群行为。18、遗传算法将“优胜劣汰,适者生存的生物进化原理引入优化参数形成的编码串群体中,按所选择的适应度函数并通过遗传中的复制、穿插及变异对个体进展筛选,适应度高的个体被保存下来,组成新的群体,新的群体既继承了上一代的信息,又优于上一代。19、决策树是一种知识概念表示方法,能表示与或规那么;是一种归纳/实例/有师/监视/图形。而人工神经网络ANNs是非图形符号表示法/函数表示法 /一种普遍且实用的表示法,又是一种函数表示法;即从大量的数据中学习值为实数、离散值或向量的函数。人工神经网络

4、对于训练数据中的“错误数据的强健性。人工神经网络的训练学习过程中有一个称为“学习速率的常数,取值过大会引起漂移,取值过小会收敛速度太慢,学习效率不高。20、多层神经网络的学习过程中有一种是反向传播算法Back Propagation-BP,其根本思想是利用输出单元的误差再计算上一层单元的误差,以次向上传播,以次向上传播,俗称反向传播。又称逆推学习算法算法。利用输出单元的误差再计算上一层单元的误差,又称逆推学习算法(简称 BP 算法)。21、归纳学习需要的预先假定,称为归纳偏置,归纳学习算法隐含了归纳偏置,候选消除算法的归纳偏置是目标概念可以在假设空间找到-所以又称限定偏置。ID3是一种典型的决

5、策树学习方法,ID3的归纳偏置有两点,分别是贪婪算法/从根向下推断决策树/搜索完整的假设空间,优先选择较小的树。Find-S算法寻找极大特殊假设使用一般到特殊序,在偏序构造的一个分支上执行一般到特殊搜索,寻找一个与样例一致的最特殊假设。22、自然语言处理是研究用机器处理人类语言的理论和技术,又叫自然语言理解, 它研究能实现人与计算机之间用自然语言进展有效通信的各种理论和方法, 自然语言处理研究面临的两大困难是歧义和病构,其中歧义分为音歧义、分词歧义、短语歧义、词义歧义、语用歧义四个方面。23. 在证据理论(Evident Theory)中引入了信任函数(BeL),它满足了概率论弱公理。在概率论

6、中,领先验概率很难获得,但又要被迫给出时,用证据理论能区分不确定性和不知道的差异。因而它比概率论更适合于专家系统推理方法。概率论是证据理论的一个特例,有时也称证据理论为广义概率论。24、贝叶斯网就是一个在弧的连接关系上参加连接强度的因果关系网络。有两个局部组成,其一是DAG,即:有向无环图;其二是CPT,即:条件概率表。贝叶斯网络通常使用三种推理是因果推理,诊断推理,辩白推理。25、在确定性推理模型中可信度因子CF(h,e)知识静态强度取值围为-1,+1;主观Bayes方法中规定规那么的静态强度LS,LN的值应0,。二、证明1、设公理集: ( x)(R(x) L(x),( x)(D(x) L(

7、x),( x)(D(x) I(x)求证: ( x)(I(x) R(x) ( 给出归结步骤并画出归结树)2、将下式化为Skolem标准形:( x)( y)P(a, x, y) ( x)( y)Q(y, b)R(x)第一步,消去号,得:( x)( y)P(a, x, y) ( x) ( y)Q(y, b)R(x)第二步,深入到量词部,得: ( x)( y)P(a, x, y) ( x) ( y)Q(y, b)R(x)第三步,变元易名,得 ( x)( y)P(a, x, y)( u)( v)(Q(v,b)R(u)第四步,存在量词左移,直至所有的量词移到前面,得: ( x)( y)( u)( v)(P

8、(a,x,y)Q(v,b)R(u)由此得到前述式( x)( y)( u)( v)(P(a,x,y)Q(v,b)R(u)第五步,消去“ 存在量词,略去“ 全称量词消去( y),因为它左边只有( x),所以使用x的函数f(x)代替之,这样得到: ( x)( u)( v)(P(a,x,f(x)Q(v,b)R(u)消去( u),同理使用g(x)代替之,这样得到: ( x)( v)(P(a,x,f(x)Q(v,b)R(g(x)那么,略去全称变量,原式的Skolem标准形为: P(a, x, f(x) Q(v, b)R(g(x)3、用归结法证明:即B是A1、A2、A3的有效结论。A1 的子句:S1=P(x

9、)Q(x)W(x,f(x) S2=P(x)Q(x)V(f(x) A2 的子句:S3=P(a), s4=U(a), s5=W(a,y) U(y) A3 的子句:s6=Q(x)U(x) B 的子句:S7=V(x)U(x) 归结过程:S1 和 S3 归结 Q(a)W(a,f(a) 定义为子句 s8 S2 和 S3 归结 Q(a)V(f(a) 定义为子句 s9 S4 和 S6 归结Q(a) 定义为子句 s10 S9 和 S10 归结 V(f(a) 定义为子句 s11 S8 和 S10 归结 W(a,f(a) 定义为子句 s12 S5 和 S12 归结 U(f(a) 定义为子句 s13 S7 和 S13

10、 归结V(f(a) 定义为子句 s14 S11 和 S14 归结空4、依据基于规那么的正向演绎系统, 有以下谓词公式(事实)( x)( y)(Q(y, x) (R(y) P(y) S(x, y),请给出事实的与或树表示。( x)( y)(Q(y, x) (R(y) P(y) S(x, y)=( x)( y) (Q(y, x) (R(y) P(y) S(x, y)=Q(y, a) (R(y) P(y) S(a, y) Skolem化 Q(w, a) (R(y) P(y) S(a, y) 主合取元变量换名例: Q(w, a) (R(y) P(y) S(a, y)三、简答题1人工智能方法与传统程序的

11、不同有哪些?传统方法解决问题。利用已有知识,问题可以构造化-数据构造,数学形式表达-数学公式、算法。利用知识,特别是依赖人类经历的启发知识是根本不同之处。人工智能可以解决众多的难以数学表达的非构造化的实际问题。人工智能首先研究的是以符号表示的知识, 而不是数值为研究对象。其次采用的是启发式推理的方法而不是常规的算法,控制构造和领域知识是别离的。同时还允许出现相对正确的答案。2在与或图的问题求解过程中,哪几类节点称为能解节点?终节点是能解节点假设非终节点有“或子节点时,当且仅当其子节点至少有一能解时,该非终节点才能解。假设非终节点有“与子节点时,当且仅当其子节点均能解时,该非终节点才能解。3宽度

12、优先搜索和深度优先搜索有何不同?在何种情况下宽度优先搜索优于深度优先搜索?在何种情况下深度优先搜索优于宽度优先搜索?两种搜索策略是否都是完备的?宽度优先搜索就是逐层穷举搜索。深度优先搜索就是分支优先搜索。待搜索问题的解存在且关键路径较短时宽度优先搜索优于深度优先搜索;待搜索问题的解存在且关键路径较长,而深度优先搜索过程中优先开展的正好是解所在的路径时深度优先搜索优于宽度优先搜索。宽度优先搜索是完备的。4.举例解释语义网络(Semantic Network)与知识图谱(Knowledge graph)的区别与联系。5.举例说明大型应用软件系统开发过程中采用的软件技术(体系)架构是如何表达框架理论

13、知识表示思想的。6简要说明粒子群优化算法与遗传算法的共性和差异。共性 1 都属于仿生算法; 2 都属于全局优化方法; 3 都属于随机搜索算法; 4 都隐含并行性; 5 根据个体的适配信息进展搜索,因此不受函数约束条件的限制,如连续性、可导性等; 6 对高维复杂问题,往往会遇到早熟收敛和收敛性能差的缺点,都无法保证收敛到最优点。差异 1 PSO 有记忆,所有粒子都保存较优解的知识,而 GA ,以前的知识随着种群的改变被改变; 2 PSO 中的粒子是一种单向共享信息机制。而 GA 中的染色体之间相互共享信息,使得整个种群都向最优区域移动; 3 GA 需要编码和遗传操作,而 PSO 没有穿插和变异操

14、作,粒子只是通过部速度进展更新,因此原理更简单、参数更少、实现更容易7影响算法A启发能力的重要因素有哪些。1.路径的耗散值;2.求解路径时所扩展的节点数;3.计算 h 所需的工作量。因此选择h函数时,应综合考虑这些因素以便使启发能力最大8决策树学习法与神经网络学习法的区别。决策树是知识一种图形符号表示,能表示与或规那么;形象直观地图形符号与神经网络学习是非图形符号表示法,是一种函数表示法;从大量的数据中抽取规那么函数。9为什么说遗传算法是一种“智能式搜索,又是一种“渐进式优化搜索。遗传算法的搜索策略,既不是盲目式的乱搜索,也不是穷举式的全面搜索,它是有指导的搜索。指导遗传算法执行搜索的依据是适

15、应度,也就是它的目标函数。利用适应度,使遗传算法逐步逼近目标值。渐进式优化:遗传算法利用复制、交换、突变等操作,使新一代的结果优越于旧一代,通过不断迭代,逐渐得出最优的结果,它是一种反复迭代的过程。10简述-过程的剪枝规那么。后代节点的值祖先节点的值时,剪枝。设MAX节点的下限为 ,那么其所有的MIN子节点中,其评估值的 上限小于等于 的节点,其以下局部的搜索都可以停顿了,即对这局部节点进展 剪支。后代节点的值祖先节点的值时,剪枝。设MIN节点的上限为 ,那么其所有的MAX子节点中,其评估值的 下限大于等于 的节点,其以下局部的搜索都可以停顿了,即对这局部节点进展了 剪支。11简述关于群智能理

16、论算法研究存在那些问题。数学理论根底相对薄弱,涉及的各种参数设置没有确切的理论依据带有随机性,每次的求解不一定一样,当处理突发事件时,系统的反映可能是不可预测的,这在一定程度上增加了其应用风险。12举例说明决策树如何代表实例属性值约束的合取的析取式。即从树根到树叶的每一条路径对应一组属性测试的合取,树本身对应这些合取的析取。例如有如下关于天气的决策树 R1:if Outlook = Sunny 并 Humidity = High then No 或 R2:if Outlook = Sunny 并 Humidity = Normal then Yes 表示的是与规那么,而 R1 或 R2 表示的

17、是或规那么。13.在主观贝叶斯方法中,为什么LS, LN不能同时大于或小于1;但可以出现LS, LN 等于1的情况。14.在确定性方法(CF方法)的推理模型中,规那么A B的可信度表示为CF(B, A);分析CF(B, A)取值围及表示的意义。CF(B, A)=MB(B,A)-MD(B,A) ,CF是由证据A得到的假设B确实定性因子。MB是由证据A得到的假设B的信任增加度量。MD是由证据A得到的假设B的不信任增加度量。确定性因子把信任与不信任组合在了一起。CF(B, A)表示的意义:1、证据为真时相对于P(B) = 1 - P(B)来说,A对B为真的支持程度。即A发生更支持B发生。此时 CF(

18、B, A) 0。2、或,相对于P(B)来说,A对B为真的不支持程度。即A发生不支持B发生。此时 CF(B, A) 0。结论 -1 CF(B, A) 115解释学习的根本思想是什么?解释学习属于那一大类学习?归纳、演绎基于解释的学习,不考虑很多实例,采用演绎推理,少用归纳。可以克制归纳学习的不可靠问题。根本思想:利用单个问题的求解例子,依据领域知识对实例进展详细分析,构造求解过程的因果关系的解释构造,并获取控制知识,然后对解释进展推广得到一般性描述,以便用于指导以后求解类似问题。从本质上是属于演绎学习。解释的过程是为获得相似问题的解决方法概念。16.在贝叶斯网络Bayes Network推理计算

19、中,什么叫D别离?有那些情况?对推理有什么作用?AI-6 54页开场四、变形空间与候选消除的算法思想及实例分析。变形空间与候选消除学习算法的归纳偏置有是什么?AI-7 64-67页五、在遗传算法中,穿插率 Pc,变异率 Pm,复制概率 Pt分别起到的作用是什么?依据经历三种概率一般的取值围是多少。复制概率 Pt 用于控制复制与淘汰的个体数目。取值围一般为 0.4 1 穿插率 Pc 就是参加穿插运算的染色体个数占全体染色体总数的比例,取值围一般为 0.4 0.99 。变异率 Pm 是指发生变异的基因位数所占全体染色体的基因总位数的比例,取值围一般为 0.0001 0.1 。六、给出粒子群优化算法

20、的“速度和“位置更新公式,并对公式的每局部给出解释。粒子速度和位置的更新其中,w称为惯性权重,c1和 c2为两个正常系数,称为加速因子。将 vidk 限制在一个最大速度 vmax 。从速度公式我们可以看出粒子的速度 vidk主要有三局部组成,分别是“惯性局部,对自身运动状态的信任,“认知局部,对粒子本身的思考,即来源于自己经历的局部“社会局部,粒间子的信息共享,来源于群体中的其它优秀微粒的经历,如果很小如 0.1 ,那么“认知局部和“社会局部的变化将很小,从粒子群的运动轨迹将非常缓慢;如果很大如 100 ,那么粒子群位置变化非常快。七、在粒子群优化算法的“速度更新公式中有加速常数又称加速因子c

21、1和c2,一般将c1和c2统一为一个控制参数,= c1+c2。如果很小如0.1,粒子群运动轨迹将非常缓慢;如果很大如100,那么粒子群位置变化非常快;请对这种现象结合粒子群的“速度更新公式给出你的解释分析。八、右图是贝兹德克于1994年提出的一种A,B,C智能模型,用于表示神经网络、模式识别和智能之间的关系,根据你的理解对该模型给出分析解释。计算智能是信息科学和生命科学相互穿插的前沿领域 , 是现代科学技术开展的一个重要表达。计算智能涉及神经网络、模糊逻辑、进化计算和人工生命等领域,它的研究和开展反映了当代科学技术多学科穿插与集成的重要开展趋势。贝兹德克于 1994 年提出了一种A,B,C智能

22、模型,从而表示 ABC 与神经网络、模式识别和智能之间的关系: A : Artificial , 表示人工的、符号的非生物的 B : Biological , 表示生物的 C : putational, 表示计算的计算智能是一种智力方式的底层认知,它与人工智能的区别是认知层次从中层下降到底层而已。中层系统含有知识,底层系统没有知识。 NN Neural Network 神经网络,PR Pattern Recognition 模式识别。九、假设:命题S(smoker):该患者是一个吸烟者;命题C(coal Miner):该患者是一个煤矿矿井工人;命题L(lung Cancer):肺癌患者;命题E

23、(emphysema):肺气肿患者,建立如图贝叶斯网络,给定患者是一个吸烟者S,计算他患肺气肿E的概率P(E|S)。S称作推理的证据,E叫询问结点。首先,E的另一个父结点C,P(E|S)=P(E,C|S)+P(E,C|S)-(1);(1)式右边的第一项, P(E,C|S)P(E,C,S)/P(S)P(E|C,S)*P(C,S)/P(S)P(E|C,S)*P(C)*P(S)/P(S) = P(E| C,S)*P(C) 同理可得(1)式的右边的第二项为:P(E,C|S) = P(E|C,S)*P(C)。由此可得:P(E|S) = P(E| C,S)*P(C)+P(E|C,S)*P(C)如果采用概述

24、中的例题数据,有P(C) = 1 - P(C),那么有,P(E|S)0.9*0.3+0.3*(1-0.3)=0.48十、:证据A1,A2必然发生,且PB10.02规那么如下: R1:A1B1 LS=10 LN=1 R2:A2B1 LS=400 LN=1求、结论B1的更新值,P B1 | A1 A2 。:证据A1,A2必然发生,且PB10.03A1B1 LS=20 LN=1 A2B1 LS=300 LN=1求B1的更新值,P B1 | A1 A2 。解:依R1,P1B0.03 OB10.03/(1-0.03)=0.030927 O(B1|A1)=LSO(B1)=200.030927=0.6185

25、5 P(B1|A1)= 0.61855/(1+0.61855)=0.382使用规那么R1后,B1的概率从0.03上升到0.382依R2:O(B1|A1A2)=300O(B1|A1)=185.565 P(B1|A1A2)= 185.565/(1+185.565)=0.99464使用规那么R2后,B1的概率从0.382上升到0.99464十一、:R1:A1B1 CF(B1,A1)0.6 ;A2B1 CF(B1,A2)0.5 R3:B1A3B2 CF(B2,B1A3)0.8 CF(A1)CF(A2)CF(A3)1; CF(B1)= CF(B2)=0;计算 CFB1、CFB2并画出推理网络。推理网络十二、课本、课件或实验中关于产生式系统描述的例子如八数码难题、野人传教士、走迷宫等问题,见课件、课本、实验指导书。

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1