强化学习(Q-funcation,DQN)基本介绍

强化学习和监督,无监督学习的关系

这三种同属于机器学习的范畴。

  • 与监督学习的区别:
    强化学习(RL)没有预先准备好的训练数据的输出值(label)。
    RL只有奖励值,当然奖励值也不是事先给出的,它是延后给出的。
  • 与无监督学习的区别:
    无监督学习没有label,也没有奖励值,只有一堆的数据特征。

强化学习的基本要素

基本要素
  • agent

agent时RL中的中心组成部分,我们可以称之为学习者或者是决策者。

  • environment

与agent进行交互的外界,我们称之为environment。

  • action

action就是agent在当前环境中有可能采取的动作。

  • reward

奖励就是agent在当前环境下采取action后的一种回应,所以奖励基本上就像一个反馈,衡量在那个环境中所采取的行动的好坏,成功或失败。奖励可以是立即的,你采取行动,你立即得到一个奖励;奖励也可以是延后的,今天,你采取了一个行动,你可能直到明天或后天才能得到收益。

以上要素,它们不断地交互,agent选择动作,环境响应这些动作并向agent呈现新的情况。
环境也会带来回报,随着时间的推移,agent通过选择行动来最大化回报。
这就是强化学习的基本过程。

基于奖励的概念,我们可以得出强化学习中的一个重要公式

In general, we seek to maximize the expected return, where the return, denoted G_t , is
defined as some specific function of the reward sequence. In the simplest case the return
is the sum of the rewards:
G_t=R_{t+1}+\gamma R_{t+2}+\gamma^{2} R_{t+3}+ \cdots

其中\gamma是0~1范围的值,如果\gamma =0,则该agent只关心当前立即奖励的最大化。当\gamma接近1时,agent会更多地考虑未来的奖励,所以agent变得更加有远见。

目前强化学习的算法

基本算法分类

强化学习的算法基本上都包含了价值函数。一种价值函数是关于状态的价值函数f(s),用来评判agent所处状态的好坏;另一种价值函数是关于状态-动作的价值函数f(s,a),用来评判当前状态s下所采取的行动a的好坏。
关于model-free 和 model-based的区别(个人觉得这位网友的评论比较容易理解):

  • Model based learning attempts to model the environment, and then based on that model,choose the most appropriate policy.
  • Model-free learning attempts to learn the optimal policy in one step。

价值函数Q-function介绍

首先我们先来定义Q-function:
Q(s,a)=\mathbb{E}(G_t),其中G_t=R_{t+1}+\gamma R_{t+2}+\gamma^{2} R_{t+3}+ \cdots
Q-function 有两个输入,其中一个是状态s,还有一个是在当前状态下agent执行的动作a。我们希望用Q-function来表示agent在状态s下采取动作a后未来可以获得的总奖励的期望。

策略Policy介绍

首先,我们要知道强化学习它的最终目标,就是给定任意的状态,我要让agent在那个状态下,采取一个最优的行动。
所以,agent需要一个策略policy\pi (s)来指导它做行动。
当然,很容易得到最优的策略定义是\pi ^*(s)=argmax _aQ(s,a)

Deep Q Networks介绍

这里谈一下为什么要用到DQN呢,就是我们现实中的任务,基本上是有很多状态的,比如一个游戏,每一帧,它都是一个状态,而且每一帧包含的信息都是高维度的信息,想把这些状态和对应的Q值存下来几乎不可能,所以我们用神经网络来映射状态到Q值的关系。


DQN模型

左边的模型把一个状态和一个可能的动作作为输入,得到相应的Q值。这个模型的问题是,如果我们现在想要使用我们的策略,为了得到最优的Q值,我们必须循环的输入对应的状态和所有可能的行动,然后找到最大的Q值。这显然是不合理且费时的。
为了解决该问题,我们介绍右边的模型,现在我们只输入状态,DQN将会计算所有可能行动的Q值,这意味着,如果我们想在给定状态下采取行动,我们只需将状态反馈给网络,它就会返回所有的Q值。
这两个情况都可以根据下方的Q-loss来更新网络的参数。

关于DQN的具体细节,一些技巧和设置可以阅读该文章(Nature 2015 DQN)(https://web.stanford.edu/class/psych209/Readings/MnihEtAlHassibis15NatureControlDeepRL.pdf)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,992评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,212评论 3 388
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,535评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,197评论 1 287
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,310评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,383评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,409评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,191评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,621评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,910评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,084评论 1 342
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,763评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,403评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,083评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,318评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,946评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,967评论 2 351

推荐阅读更多精彩内容