多智能体第2章.pptx

上传人:b****9 文档编号:1050402 上传时间:2022-10-16 格式:PPTX 页数:57 大小:518.27KB
下载 相关 举报
多智能体第2章.pptx_第1页
第1页 / 共57页
多智能体第2章.pptx_第2页
第2页 / 共57页
多智能体第2章.pptx_第3页
第3页 / 共57页
多智能体第2章.pptx_第4页
第4页 / 共57页
多智能体第2章.pptx_第5页
第5页 / 共57页
点击查看更多>>
下载资源
资源描述

多智能体第2章.pptx

《多智能体第2章.pptx》由会员分享,可在线阅读,更多相关《多智能体第2章.pptx(57页珍藏版)》请在冰豆网上搜索。

多智能体第2章.pptx

,多智能体机器人,1,第2章智能Agent,哈尔滨工业大学,计算机科学与技术学院,什么是Agent?

Agent最主要的特点就是它们是自治的:

能够独立行动,并对它们的内部状态进行控制。

Agent是处在某个环境中的计算机系统,该系统有能力在这个环境中自主行动以实现其设计目标。

2,什么是Agent?

几个Agent例子:

温度控制系统软件指示器(UNIX操作系统中用于邮件收发的后台程序daemon)智能Agent就是一个在一定环境下能够灵活自主行动的计算机系统。

灵活的意思是:

反应性预动性社会行为能力,3,反应,如果一个程序的环境已经固定,这个程序不必担心它的成功或失败仅仅执行就可以了。

固定环境的例子:

编译器真实世界不像那样:

事物在改变,信息也是不完整的。

很多有趣的环境是动态的。

动态域中开发软件很难:

编程必须考虑失败的可能性问它自己是不是值得执行!

一个有反应的系统就是一个可以保持与它现有的环境进行交互,并能够对环境的变化作出反应的系统(及时响应是很有用的)。

4,预动,对一个环境作出反应是容易的(例如,刺激响应规则)。

但是我们通常想让Agent为我们做事。

因此需要目标引导行为。

预动=产生并试图完成目标,不仅仅是事件驱动,而是采取主动。

承认存在机会。

5,平衡反应式和目标引导系统的行为,我们想让Agent是反应式的,即以一种恰当的(及时的)形式响应环境的改变。

我们想让Agent能够按部就班地工作以满足长期的目标。

这两种事项彼此之间可能产生冲突。

设计一个能平衡这两种行为的Agent仍然是一个需要解决的研究问题。

6,社会能力,真实世界是一个多Agent环境:

我们不能不考虑其它Agent的目标就尝试实现自己的目标。

有些目标只有通过与别人合作才能完成。

对于很多计算机环境来说也存在同样的问题:

Internet就是一个实例。

Agent的社会能力是通过某种Agent通信语言来相互沟通(可能有人类),或许是相互合作。

7,其它特性,移动性:

沿着电子网络移动的能力。

准确性:

一个Agent不能有意地传达错误信息。

友善:

Agent没有冲突的目标,而且每个Agent都将试图去做要求做的事情。

合理性:

Agent为了完成目标而采取行动,而且在阻止它的目标实现时就不采取行动。

学习/适应:

Agent会不断改进性能。

8,Agent与对象,Agent仅仅是对象的另一个名字吗?

对象:

被定义为一个计算实体,封装了一些状态。

通过消息传递来进行通信。

有方法,可能是对应某个状态执行的操作。

9,Agent与对象,主要的区别:

Agent是自治的:

Agent拥有比对象更强的自治性,特别是它们自己决定是否接受其它Agent请求执行一个动作。

Agent是灵活的:

能够产生灵活的(反应的,预动的,社会的)行为,而标准的对象模型根本没有这种行为能力。

Agent是主动的:

多Agent系统本质上是多线程的,其中每个Agent至少假定拥有一个主动控制线程。

10,对象做事是自由的,Agent做它想做的事情。

Agent为了利益而工作。

11,Agent与专家系统,Agent仅仅是专家系统的另一个名字吗?

专家系统是一些领域中无实体的“专家意见”。

例子:

MYCIN知道人类的血液疾病知识它具有很多有关血液疾病的知识,以规则的形式存在。

通过提供事实,回答问题和查询,医生可以从MYCIN获得关于血液疾病的专家意见。

12,Agent与专家系统,主要的区别:

Agent处于某个环境中:

MYCIN不能感知世界只能通过问用户问题来获得信息。

Agent产生行为:

MYCIN不会对病人进行手术。

一些实时的专家系统(执行实时控制任务的专家系统)就是Agent。

13,智能Agent与人工智能,Agent仅仅是人工智能工程吗?

构建一个Agent是人工智能的全部么?

人工智能目的在于构建能够(最终)理解自然语言,识别和理解场景,用普通的常识,创造性地思维等等所有这些都是很困难的。

所以,我们不必解决所有的人工智能问题来构建一个Agent,14,智能Agent与人工智能,当构建一个Agent时,我们仅仅想让一个系统(在有限的领域内)能够选择正确的动作来执行。

我们不必为了构建一个有用的Agent而解决所有的人工智能问题:

一点智能就已经大有帮助了!

OrenEtzioni,speakingaboutthecommercialexperienceofNETBOT,Inc:

“Wemadeouragentsdumberanddumberanddumberuntilfinallytheymademoney.”,15,环境可观察与不可观察,在可观察的环境中,Agent能够获得完全的、精确的、最新的环境状态信息。

多数真实世界环境(例如日常生活的物理世界和Internet)是不可观察的。

一个环境越容易观察,构建一个在环境中发挥作用的Agent越简单。

16,环境确定性的与不确定性的,一个确定的环境就是一个动作会产生一个确定的效果执行一个动作不会产生不确定的状态。

对于各种意图和目的来说,物理世界被认为是不确定的。

不确定的环境给Agent设计者带来了巨大的问题。

17,环境静态的与动态的,静态环境是假定如果没有Agent执行动作,环境就不会发生变化。

动态环境有其它过程发生作用,因此,会在Agent的控制之外发生变化。

其它的过程可以干预Agent的活动(例如并行系统理论)。

物理世界是一个高度动态的环境。

18,环境离散的与连续的,如果存在确定的,有限数量的动作并且可以在环境中被感知,则环境是离散的。

RussellandNorvig把国际象棋的游戏作为一个离散环境的例子,把出租汽车驾驶作为连续的例子。

连续环境与计算机系统有一定程度的不匹配。

离散环境原则上来说,可以通过一类“查表法”来处理。

19,复杂环境,20,作为意识系统的Agent,当说明人类活动的时候,像下面的状态通常是很有用的:

张三带着伞,因为他相信将要下雨了。

李四努力工作,因为他想要获得博士学位。

这些陈述利用了大众心理学,通过大众心理学,人们的行为被预测和解释,像相信和想要(上面例子中用到的),希望、害怕等等。

在这样大众心理学里面的想法描述被称作有意图的观念。

21,作为意识系统的Agent,哲学家DanielDennett创造了意识系统这个术语来描述一些实体,实体的行为可以通过信念、期望和理性敏感等属性来预测。

Dennett区分了不同“层次”的意识系统:

一阶意识系统拥有信念和愿望(等),但是没有关于信念和愿望的信念和愿望二阶意识系统更加复杂,它有关于信念和愿望的信念和愿望(当然还可以有其它的思维状态)包括对于他人的和对于自己的。

22,作为意识系统的Agent,使用信念、愿望和意图等属性,对计算机系统是合法的、有用的吗?

23,作为意识系统的Agents,McCarthy等人的意见是在有些情况下采用意识立场是合适的:

当赋予信念、自由愿望、意图、知觉、能力、要求等与表示一个人具有同样信息的时候,这种表示是合理的。

如果这样做有助于理解机器的结构、机器的过去和将来的行为,或者有助于修理或改进这台机器,则这种表示是有用的。

从逻辑上讲,即使对于人类这种表示也不一定是必须的,但是,用有条理并且简单的方式表示在特定情况下实际知道的机器状态可能会需要意识属性或者拟人的属性。

关于机器的信念、知识、要求等思维属性理论可以用比人类思维属性更简单的方式构造,也可以用于人类。

给已知其结构的机器赋予思维属性是最直接的方式,比如恒温控制器和计算机操作系统。

但是,当应用于并不完全知道其机构的机器时是最有用的。

24,作为意识系统的Agent,什么样的对象可以用意识立场来描述?

结论是,几乎所有的自动控制系统都可以用意识立场描述。

例如,下面的灯的开关:

用(合作的)Agent描述灯的开关是非常合适的,它具有按照人的意志传送电流的能力。

当开关相信要它传送电流时,它会不停地传送;否则就不传送。

拨动开关就是向它传达我们的愿望。

(YoavShoham)但是多数成年人会发现这样一个描述很荒谬!

这是为什么?

25,作为意识系统的Agent,答案是这样的,意识立场描述的方法与我们观察到的电灯开关动作非常一致,内部也是一致的:

.但是它并不能为我们提供什么,因为我们完全理解开关的机制,可以对开关的动作给出更简单的和机械的描述。

(YoavShoham)通常来说,对系统的了解越多,越不需要依赖对其行为意图进行有灵性的解释。

但是对于非常复杂的系统,机械地对它的行为解释可能就行不通。

当计算机系统变得越来越复杂时,我们需要更加抽象的技术和方法来解释它们的行为低水平的解释没有实际意义。

意识立场就是这样一个抽象。

26,作为意识系统的Agent,意识立场就是这样的抽象工具,它给我们提供了方便而熟悉的描述、解释和预测复杂系统行为的方式。

记住:

在计算领域最重要的发展就是基于新的抽象:

过程抽象抽象数据类型对象Agent和作为意识系统的Agent代表了一个更深一层的和日益增强的抽象。

所以Agent理论家从作为意识系统的Agent开始认为:

系统最简单的协调性描述需要意识立场。

27,作为意识系统的Agent,意识立场是一个抽象工具一个讨论复杂系统的抽象方式,它允许我们去预测和解释它们的行为而不必去理解机制是如何工作的。

现在,很多计算机科学关注于寻找抽象机制(过程抽象、自动数据变换ATD和对象都是例证)。

所以为什么不可以用意识立场作为计算技术的抽象工具用意识立场对复杂的计算机系统进行解释、理解和程序设计呢?

这是有利于Agent的最重要的观点。

28,智能Agent的抽象结构,假定环境是任何离散的瞬时状态的有限集合E:

假设Agent有一个可执行动作的清单,它们改变环境的状态:

Agent在环境中的一次执行r是环境状态与动作的一个序列:

29,智能Agent的抽象结构,设:

R是所有可能的(E和Ac上的)有限序列集合RAc是以动作结束的序列所组成的R的子集RE是以状态结束的序列所组成的R的子集,30,状态转移函数,一个状态转移函数代表了环境的行为:

注意环境是与历史有关的非确定的如果r,那么不可能存在对r后继状态。

在这种情况下,就说系统结束它的执行。

形式上,环境Env是一个三元组Env=Ee,其中:

E是环境状态的集合,e0E是初始状态,而是状态转移函数。

31,Agent模型,据系统的到当前为,把Agent的模型表示成一个函数,将一次执行映射到动作:

一个Agent根止历史状态决定执行什么动作。

设AG是所有Agent的集合。

32,什么是系统?

系统是Agent和环境构成的对。

任何系统都有与之相关的可能的执行集合;用R(Ag,Env)表示Agent在环境Env执行的集合。

33,什么是系统?

Ee中,entAg在环境Env=如果:

形式上,一个序列表示一个Ag的一次执行,e是Env的初始状态Age对于u,34,纯反应式Agent,一些Agent在没有参考它们的历史的情况下决定该作什么没有对过去作出参考,它们基于现在的情况而作出决定。

我们称这样的Agent为纯反应式Agent:

一个温度控制器是一个纯反应式Agent:

35,感知,感知系统:

把Agent的决策函数分解成感知子系统和动作子系统:

环境,Agent,see,action,36,感知,函数see代表Agent观察环境的能力,而函数action代表Agent的决策过程。

see函数的输出是一个感知对象:

see:

EPer把环境状态映射到感知,action是一个函数:

actionPer*Ac把感知序列映射到动作。

37,有状态的Agent,现在考虑包含状态的Agent:

环境,Agent,see,action,next,state,38,有状态的Agent,这些Agent有内部的数据结构,一般用来记录环境

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 表格模板

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1