7.值函数方法(Value Function Methods)

1. 从Actor-Critc算法中抛开策略梯度

首先回顾下之前的actor-critic算法,其中的优势函数体现的是在策略\pi下,执行动作a_t要比平均reward好多少。

image.png

如果从actor-critic算法中,我们去除掉第四步的梯度部分,那么我们可以基于优势函数并选择最大化优势函数的动作,即 arg\ max_{a_t} A^\pi(s_t,a_t)。这种情况下我们新的策略就可以是如下表示:

image.png

这种新的策略虽然说不一定是最好的,但是至少能够和原来的策略\pi一样好。

2. 策略迭代(Policy Iteration)

从宏观上来看,我们新的方法可以表示为如下两个步骤的迭代,首先是评估优势函数,然后是更新策略。
image.png

和之前的actor-critic算法一样,其中的优势函数的计算是需要通过评估值函数进行的,即我们需要解决的是如何评估V^\pi(s)

image.png

这一类的方法在广义上被称为动态规划(Dynamic Programming)。为了去解决如何评估V^\pi(s)的问题,我们首先需要加假设p(s^`|s,a)是已知的,并且状态空间与动作空间都是离散的。这样我们就可以为V^\pi(s)构建一个完整的表格,如下所示:

image.png

这样我们就可以通过bootstrapped更新得到值函数:

image.png

通过值函数我们选择了最大的优势函数,这样就构建了一个确定性的策略。

3. 策略迭代结合Dynamic Programming

第一步:评估V^\pi(s)

image.png

第二步:更新策略

这里的第二步中,我们之前的的策略是arg\ max_{a_t} A^\pi(s_t,a_t),但是在给定s_t下,A^\pi(s_t,a_t)Q^\pi(s_t,a_t)之间只差了一个常数V^\pi(s_t), 因此arg\ max_{a_t} A^\pi(s_t,a_t)=arg\ max_{a_t} Q^\pi(s_t,a_t),所以可以用Q去代替A。

通过去查询每个状态对应的最大值的动作,我们就可以表示为一个新的基于Q的策略。

所以,更加简化一点我们可以跳过策略,直接计算Values.

image.png

4. 结合深度网络的fitted value iteration

我们可以用神经网络去拟合值函数,这样避免在表格表示中的维数灾难问题。

image.png

从fitted value iteration算法的第一步可以看到,我们需要知道不同的动作的对应的最大输出。然后第二步是去通过优化方法训练神经网络让网络输出与目标值函数之间的差异降低。但是第一步的max很难实现,因为max的前提是我们假设已经知道了transition dynamic。

但是如果我们不知道transition dynamic怎么办呢?在value Iteration中,我们第一步是求解Q,第二步用Q去更新策略。我们对V的反复迭代,可以使用Q去代替。同时Q函数可以使用样本拟合。

image.png

5. fitted Q iteration algorithm

我们可以和fitted value iteration算法一样,同样去拟合Q函数。进而得到了fitted Q iteration algorithm。

image.png

fitted Q iteration algorithm的好处在于不需要去同一状态尝试不同的行动选项,因为Q函数已经告诉你不同行动的效果了:我们无需在真实环境中尝试各种不同行动后复位,而只需要在我们所涉及的Q函数拟合器上做这点就可以了。此外,我们这样的两步算法有很大的优点。第一,算法中只需要用到很多(s,a,r,s')的转移样本,而这些样本是可以off-line的。第二,这个算法只用到一个网络,没有用到策略梯度,因此也没有高方差的问题。但是,这个算法的致命缺点是,对于这样的非线性函数拟合机制下的算法,没有任何收敛性保证(不进行拟合的大表格Q迭代算法在一定条件下有收敛性。一个完整的Fitted Q-iteration的框架是这样的:

image.png

为什么Q-iteration是off-policy呢?

因为第二步和第三步的计算没有需要用到当前策略下的数据,而只是大量的(s,a,r,s')就可以了。

fitted Q-iteration算法到底在优化什么呢?

第二步中,如果我们是表格Q函数迭代的话,max就是在改进策略。第三步中,我们在最小化一个期望误差

image.png

也被称为Bellman误差。可以发现,在理想情况下,如果这个误差为0,那么我们所求得的Q函数就满足

image.png

这正是确定最优Q函数的Bellman方程,也对应了最优策略

[图片上传失败...(image-9e9201-1577635119153)]

这个最优策略最大化期望收益。如果我们不使用近似,且每个(s,a)有概率发生的话,那么我们可以说期望误差为0对应着最优策略。

这里需要注意,虽然该算法是offline的,但是我们还是需要让收集的(s,a,r,s')不能太失真。

6. Online Q iteration

在之前的拟合Q函数迭代算法中,我们收集大量数据,然后反复做样本回归。我们把每次收集的样本数设为1,然后把K设为1,并且设置只走一个梯度步,就变成了在线Q迭代算法 (Online Q-iteration),循环以下三步。

image.png
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,864评论 6 494
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,175评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,401评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,170评论 1 286
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,276评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,364评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,401评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,179评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,604评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,902评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,070评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,751评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,380评论 3 319
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,077评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,312评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,924评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,957评论 2 351

推荐阅读更多精彩内容