智慧5

姓名:黄睿

学号:22011110004

学院:通信工程学院

节选自:https://blog.csdn.net/coffee_cream/article/details/82724489

【嵌牛导读】本文初步介绍强化学习搜索策略

【嵌牛鼻子】强化学习搜索策略

【嵌牛提问】如何进行状态-动作对的搜索?

【嵌牛正文】

本节创建了一种统一的方法视图,其中既包括需要一个环境模型)的方法(如动态编程、启发式搜索等,也包括一些不依赖于模型的方法(如蒙特卡洛、temporal-difference等),这里将前者视为是一种planning 方法,后者视为是一种learning 方法,这两类方法之间有一些不同点,也有一些相似点,例如,它们的思想的核心都是计算 value functions,并且都是基于对未来事件的展望计算得到一个 back-up value,再利用这个值来更新得到一个近似的 value 函数。前面的章节中介绍了蒙特卡洛方法和 temporal-difference 方法,以及如何用 n-step 方法来统一这两种方法。这一章节也是一种类似的结合方式,它是将 planning 与 learning 方法相结合。在前面的章节中已经介绍了他们的不同点,下面将探讨如何将他们结合在一起。


1、 Models 和 Planning

一个环境的model 的是指:可以用来预测环境对 actions 的反应的东西,给定一个 state 和一个 action,model可以生成相应的下一个 state 和下一个 reward。如果 model 随机的,那么就有很多种可能的下一个 states 和 rewards,每一种都对应一种发生的概率。有些模型得到的是对所有可能性和概率的描述,这类方法称为是distribution model,还有一些模型得到的仅仅是某些可能性,是依据概率进行采样得到的,这类方法称为是 sample models。例如对股子的和进行预测的模型,一个 distribution model 会得到所有可能的和以及它们发生的概率,而一个 sample model 依据概率分布得到的是一个单独的sum。Distribution model 比 sample model 的能力更强,因为它们总可以用来生成 samples,但在一些应用中,获得 sample model 比 distribution model 要更容易一些,就比如股子的例子,可以利用一个计算机程序来仿真并返回一个sum,而计算得到所有可能的 sums 和对应的概率要更难、更容易出错。


模型可以用来模拟和仿真experience。给定一个开始的状态和动作,一个采样模型可以生成一个可能的转化,一个分布模型可以生成所有可能的转化(发生的概率作为其权重值)。给定一个初始状态和一个 policy,一个采样模型只可以生成一个 episode,而一个分布模型可以生成所有可能的 episodes 和对应的概率值。无论在哪种情况下,我们都可以说该模型对环境进行了仿真并生成了 simulated experience。在不同的领域,planning 可以表达不同的意思,这里它代表的是任何一种以 model作为输入,并能生成或提高一种与该环境结合的 policy 的计算过程:

在人工智能领域,有两种不同的planning 方法,一种是state−space planning,planning 从根本上来讲是根据目标在状态空间中搜索一种更优的 policy 或 path,其中 actions 导致 state 的转变,value function 依据 states 进行计算。另外一种是 plan−space planning,planning 是在整个 plans 空间中搜寻,操作者从一种 plan 转化为另一种 plan,并且 value function 是定义在整个 plans 空间中的,plan-space planning 包括 evolutionary 方法和 “partial-order planning”(人工智能领域一种常见的 planning,其中在 planning 的所有阶段 steps 的顺序不是完全决定的),在随机优化控制问题中 plan-space 方法很难有效的应用,因此这里不再详述。

所有的state-space planning 方法都具有一个统一的结构,主要有两个基本思想:(1)所有的 state-space planning 方法都有一个计算 value functions 的过程,并作为提升 policy 的主要媒介;(2)它们都是利用仿真的 experience 中的 backup 操作来计算它们的 value function。

Learning 和 planning 的主要思想都是利用 backup 操作来估计 value functions,不同点在于 planning 使用的是模型生成的仿真的experience,而 learning 方法使用的是由环境生成的真实的 experience,由这个不同点就衍生出其他一系列的不同点,如估计 performance 的方法、生成 experience 的方法等等。这个统一的结构意味着很多思想和方法在 planning 和 learning 之间可以传递,特别地,在很多情况下,一个 learning 算法可以由一个 planning 方法的 backup 步骤替换。learning 仅需要 experience 作为输入,并且其他情况下它们可以应用于仿真的 experience 中,就像应用于真实的 experience 中一样。下面的 box 展示了 planning 方法的一个简单的例子,它基于 one-step tabular Q-learning 和采样模型的随机样本,该方法称为是 random-sample one-step tabular Q-planning。

2、Dyna:集成Planning、Acting和Learning

当在线的planning 完成后,在与环境进行交互的过程中会产生大量的问题,从交互中获得的新的信息可能会改变模型并因此与 planning 交互,因此需要根据当前或将来的状态或决策,以某种方式定制 planning 过程。如果决策的制定和学习模型都是计算密集型的过程,那么可用的计算资源就需要在它们之间进行规划和分配。为了开始探索这些问题,这一节将介绍 Dyna-Q 方法,这是一种简单的框架,它集成了在线 planning 需要的主要函数。下面将主要介绍的是该方法的思想。

在planning agent中,真实的 experience 至少有两个角色,它们可以用来提升模型(更确切的说是贴近真实环境状态),并且可以利用一些强化模型方法来直接提升 value function 和 policy。前者我们称为是 model-learning,后者我们称为是 direct reinforcement learning (direct RL)。Experience、model、values 和 policy 直接可能的关系如下图所示,其中每一条箭头代表了一种影响和推测的提升之间的关系,可以注意到,experience 不是直接地就是间接地通过 model 来提升 value 和 policy functions,有时会将后者称为是 indirect reinforcement learning。

不论是direct 还是 indirect 方法,它们均有各自的优缺点,indirect 方法常常可以充分利用有限的 experience,在与环境很少的交互下就能得到一个更好的 policy;而 direct 方法相比之下更简单,并且不会受模型设计偏斜的影响。有些人认为 indirect 方法总是比 direct 方法更好,而其他人则认为 direct 方法对大部分的人类和动物学习有帮助,心理学和人工智能领域有关的辩论关注的是认知的相对重要性而不是试错学习,以及商议计划而不是反应性决策的制定。这里的观点是,在所有这些辩论中,不同的选择之间的对比被夸大了,通过观测这两种观点之间的相似之处而不是直接反对它们,可以获得更多的洞察力。例如,对动态规划和 temporal-difference 方法,尽管其中一个是为计划而设计的,另一个是用于无模型学习,但这里还是强调了他们之间的相似性。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,444评论 6 496
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,421评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,036评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,363评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,460评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,502评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,511评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,280评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,736评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,014评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,190评论 1 342
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,848评论 5 338
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,531评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,159评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,411评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,067评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,078评论 2 352

推荐阅读更多精彩内容