关于对马尔科夫决策过程与Q函数的理解

最近转向深度学习方向的学习,遇到一些卡壳。

查阅了部分资料,获得一些个人的理解如下:

马尔可夫决策过程 【定义】

是基于马尔可夫过程理论的随机动态系统的最优决策过程。

它是马尔可夫过程与确定性的动态规划相结合的产物,故又称马尔可夫型随机动态规划。

1⃣️ 具备 马尔科夫链 属性:

即 简单点说,一个事件/物体 可视为是 无数(状态,动作)的切片积分而成,而下一个状态s` 仅与 当前状态s 有关,与历史状态无关。

举例:就像下棋一样,你下棋的每一个决策 都仅与当前棋局的状态 有关, 而你是基于最终收益(赢)作为动作 的策略依据。

2⃣️ 由(S, A, R, P)四个变量 描述

S: State 状态序列
A: Action 由状态 映射到 的动作序列
R:Reward 回报函数,立即回报
P:状态转移概率序列

3⃣️ 引入 值函数概率来衡量 当前状态的长期收益

3.1状态值函数:

γ 为 折扣因子:用来 加权 与当前状态 时间 最接近的 动作影响力 越大。
γ=0时,相当于只考虑立即不考虑长期回报,
γ=1时,将长期回报和立即回报看得同等重要。

3.2 加入(状态,动作)转移概率后
3.3 MDP的最优策略

即 能够使得Vπ(s)在任意 状态s下 均能 获得最大值 的策略 π

那么 怎么样 进行求解呢?

获得最优策略的三种方法:
动态规划法(dynamic programming methods)
蒙特卡罗方法(Monte Carlo methods)
时间差分法(temporal difference)

3.4 动态规划法(贝尔曼方程)

3.5 Q函数-(引入了动作的值函数)

1⃣️ 定义动作值函数(action value function Q函数)如下:



2⃣️ 给定当前状态s和当前动作a,在未来遵循策略π,那么系统将以概率p(s'|s,a)转向下个状态s',上式可以重写为:



3⃣️ 值迭代:
Q(s,a) = r + γ * max{ Q(基于s'下 任意a' ) }
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • 一. 增强学习简介 1.1 什么是增强学习? 机器学习的算法可以分为三类:监督学习,非监督学习和增强学习。 增强学...
    阿阿阿阿毛阅读 31,668评论 0 25
  • 机器学习一共有三个分支,有监督学习、无监督学习和强化学习。强化学习是系统从环境学习以使得奖励最大的机器学习。强化学...
    文哥的学习日记阅读 4,743评论 2 17
  • 学号:16040520018 姓名:米芃 [嵌牛导读]本文是强化学习名作——“Reinforcement Lear...
    南城城南阅读 585评论 0 0
  • 子曰:父在,观其志;父没,观其行;三年无改于父之道,可谓孝矣。 这段章句,孔子在谈孝的表现。孝,一般用来形容子辈对...
    浅浅君子阅读 672评论 0 0
  • 村庄深处,桑草青黄,席卷乡野;雾霭尽褪,已无风吹稻浪。咪完小酒,父亲说,我们这里晒太阳好,就搬条竹椅,顾自在墙根眯...
    书叉脸困觉猪2阅读 2,090评论 22 56

友情链接更多精彩内容