部分可观察马尔可夫决策过程研究进展Word文件下载.docx

上传人:b****0 文档编号:13182018 上传时间:2022-10-07 格式:DOCX 页数:22 大小:61.99KB
下载 相关 举报
部分可观察马尔可夫决策过程研究进展Word文件下载.docx_第1页
第1页 / 共22页
部分可观察马尔可夫决策过程研究进展Word文件下载.docx_第2页
第2页 / 共22页
部分可观察马尔可夫决策过程研究进展Word文件下载.docx_第3页
第3页 / 共22页
部分可观察马尔可夫决策过程研究进展Word文件下载.docx_第4页
第4页 / 共22页
部分可观察马尔可夫决策过程研究进展Word文件下载.docx_第5页
第5页 / 共22页
点击查看更多>>
下载资源
资源描述

部分可观察马尔可夫决策过程研究进展Word文件下载.docx

《部分可观察马尔可夫决策过程研究进展Word文件下载.docx》由会员分享,可在线阅读,更多相关《部分可观察马尔可夫决策过程研究进展Word文件下载.docx(22页珍藏版)》请在冰豆网上搜索。

部分可观察马尔可夫决策过程研究进展Word文件下载.docx

在MDP模型中,Agent

为折扣因子,

其目标是让期望值有界

(1

由于MDP决策过程中,要同时考虑世界模型的不确定性和目标的长远性,

需要在策略

时刻,

状态

的情况下,

值函数构造如下

=

*,也就是Agent每个时刻都能做到的最优决

策,根据Bellman

最优策略公式可以得到。

根据贪婪策略

*

=arg

max,

1

(4

max

(5

最优策略的通常使用值迭代算法[2],具体的算法步骤如下步骤1

初始化V1(s=0,

假定一个任意小的数值

得到Vt(S;

步骤3判断下式,如果结果为真,则进入步骤4;

否则返

回步骤2;

步骤4

对于每个s∈S,

取=arg

由于下式可以知道,值迭代算法所求出来的策略将是最优策略

(6

2POMDPs

在POMDP模型中,Agent必须利用随机环境中部分观察在每个时间点上,Agent都可能是众多可能状态中的某一状态,它必须利用现有的部分信息、[1,3]。

一般情况下,POMDP可以用一个六元组<

来描述,

其中

、与MDP

一样。

£

º

Agent它可计算出采

用动作

使用

来描述Agent

处在

用以下的形式来进行描述[4,5

]

;

、行

得到,

具体的过程根据贝叶斯计算如下

Pr

=

Pr,

策略

Agent世界模型

s

a

2MDP决策

t时刻状态St

t+1时刻状态St+1

T

函数

R

选取动作报酬

选取动作报酬值

图3

POMDP模型

状态评估(SE

图4

决策

行动

信念

观察

b

o

a'

b'

o'

s'

R(s,a

O(s'

a,o

T(s,a,s'

b(s

-2118

=Pr,

=Pr

Pr

,

(8

以前的观点来解决POMDP问题时,由于必须知道历史动作才能决定当前的动作,这种解决方案是非马尔可夫链,然而当引入信念状态空间后,POMDP问题就可以转化为基于信念状态空间的马尔可夫链来求解。

通过信念状态空间的引入,POMDP问题可以看成BeliefMDP问题

[3]

寻求一种最优策略将当前的信念状态映射到

Agent的行动上,根据当前的信念状态和行为就可以决定下一个周期的信念状态和行为,

具体描述如下

=Pr(b'

∣a,b

a,b,o

(b,a:

信念状态报酬函数,

其定义如下

*1

-策略树(如图5所示和值函数,通过求解

值函数来进行最优策略的选取。

-策略树,

策略树的集合,为策

略树的节点,

则值函数的构造如下

+

(14

为了简化表达,

=<

µ

Ä

î

Ó

Å

Ö

¬

Í

¼

6

描述了在不同区域的最优值

(15对于以上策略树,其最大的节点数为(

|

|-1,其

(16

策略树的时间复杂度是一个指数函数,随着

然后将所有节点的策略

集合求或,得到值函数

[4,5]

由于||、|

|的时间复杂度

是多项式的,

因此

(18

(19

Witness

算法不去关注所有时间的所有动作,它将每个节

点进行分解,取获取每个节点的最优动作,然后在将所有的最优动作转换为最终的值函数。

这种算法在某些情况下可以降低计算的复杂度,但对世界模型的建模不够完整,难以保证所

求得的解一定是有效的,算法如图7所示。

3.2IncrementalPruning算法

Witness算法对于小规模的计算时效果比较好,但是当问

题规模变大后,使用Witness算法就很难求得近似最优解。

ZhangandLiu(1996提出一种IncrementalPruning算法(如图8

所示可以较好的解决较大规模问题。

该算法的基本思想是

使用动态规划方法根据给定的值函数

t=t+1;

}while(

2

O

-2119-

=max

+(20

(22

表示成向量集合

表示成向量集合,

(24

(25

{

}

3.3基于点的值迭代算法

以上两种算法都是通过降低信念状态空间的维数来降低

求解的规模,但是在实际的求解过程中历史观察-动作集合也是一个指数函数,如何降低历史观察-动作函数的求解复杂度也是衡量一种算法优劣的重要尺度。

基于点的值迭代算法[JollePineau,GeoffGordonandSebastianThrun,2003]主要是通过降低历史观察-动作值函数的求解规模来近似求解POMDP问题[7]。

基于值迭代的算法都是PWLC的,

可以表示为

可以看成Backup操作,

每个动作都对应一个

+,,

实现精确更新,

首先引入中间变量

*

0

||O|,也就是所谓的“维数灾”问题,使得问题无法求解。

为了

解决这个问题,Witness算法、IncrementalPruning算法和基于点

的值迭代算法都是将整个问题进行分解,构造

|

4POMDP应用领域

20世纪末,由于看到POMDP模型可以更加真实的反应客观世界模型,人们开始对POMDP进行大量的研究和应用[9]。

在科学应用领域,科学家主要将其应用到自主机器人控制上。

例如:

在太空中的漫步机器人;

机器人导航;

炸弹拆除;

放射性废物回收;

深海探矿;

管道网络的检修和维护等,在这些领域

中,人们不可能直接操作,只能依靠机器人来进行,同时这些领域的环境条件非常符合POMDP模型。

在工业应用领域,例如机器生产和维护,人们可以建立一个POMDP模型,使得最小化机器使用费用,最大化生产能力。

例如道路检测管理,美国高速公路就是一个成功案例,Woodward-Clycde公司开发了一个基于马氏决策过程的公路管理系统,使用有限的资金来维护公路,这个系统4年内就节省了1亿多美元。

在养鱼行业中,也需要在短期目标和长期目标之间作平衡,使用POMDP模型决策可以达到这一目的。

在商业应用领域,例如网络故障查找和排除,假如电网出现故障,需要快速地找到故障处并排除它。

在市场管理领域,人们可以开发基于POMDP的软件来解决库存问题,使得利润最大化。

POMDP还可以应用到医疗诊断问题上,尽早查处病因。

在军事领域,POMDP的应用也很广泛,例如:

移动目标的查找、跟踪和拯救;

目标的辨认;

武器的使用分配等。

5结束语

解决POMDP问题的算法有很多种,但是从本质上都是基

于动态规划和线性规划思想,对所求问题进行分解,降低“维数灾”问题,然后采用值迭代算法进行求解。

本文重点介绍和分析了Witness算法、IncrementalPruning算法和基于点的值迭代算法,这3种算法虽然表达方式不同,但是一个本质思想就是降低所求问题的规模,求出近似解。

(下转第2126页

DP-Update(S{

ForeachainAandoinO;

Soa=Filter

∈St-1;

Sa=IncPrune

=returnS'

}

IncPrune

{

W=RR

for(i=3;

i<

=k;

i++{W=RR(

W,;

retrunW;

RR(A,B

F=A

W=W∪{w};

F

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 表格模板 > 表格类模板

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1