0、什么是强化学习?

一、什么是强化学习

在我们生活中强化学习最出名的无疑就是:阿尔法 go、阿尔法 zero了。
他们采用了强化学习的算法能够使得能够自主完成一些较为复杂的任务。

强化学习(reinforcement learning):又称再励学习、评价学习或增强学习,是机器学习范式方法论之一,用于描述和解决智能体(agent)在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题 。

强化学习的核心机制,我们给定一个环境,机器在这个场景下不断地尝试,根据成功和失败设置奖励机制和惩罚机制。通过成千上万次的尝试最终从错误中收获一套他自己学习出的决策机制。是一个机器不断增强的一个过程,我想这也是为什么被叫做reinforcement learning的原因了。

二、强化学习和监督学习,非监督学习有什么区别呢?

  • 监督学习(supervise learning):其过程就是给定样本和标签,去近似拟合某一个函数的过程。f(x) = y;
  • 非监督学习(unsupervise learning):没有给出标签,让神经网络自主进行分类。
  • 强化学习(reinforce learning):它是有目标的,但是对于每一个输入都没有确定的结果,只有走到最后才知道结果是不是正确的。例如:在下棋中每走一步都不确定会输还是会赢,只有在最后才知道输赢。


    8.jpg

举个例子:走迷宫,让机器寻找出口。我们就让机器从入口开始不断尝试,如果找到出口就+1,如果走到死胡同就-100。我们让机器自己去尝试和决策下一步往哪走,直到他能找到正确的路径。

如果按照这个思路的话,我们是不是可以训练一个模型让他自己给我们打王者荣耀呢?答案是肯定的,虽然我们现在还不知道怎么实现,但我相信一定会实现!

三、强化学习的方法

  • 通过价值选择行为:Q Learning、sarsa、Deep Q Network
  • 直接选择行为:Policy Gradients
  • 想象环境并从中学习:Model based RL

可以将其分为:
(1)不理解环境的model,机器对所处环境一无所知,所以需要疯狂的试探,根据反馈推测下一步怎么走。例如:Q Learning、sarsa、Policy Gradients
行为 -> 反馈 -> 行为 -> 反馈 -> 行为-> 反馈 -> 行为……
(2)理解环境的model,机器人会根据过往的经验先理解真实世界,并建立一个模型(虚拟环境),模拟现实世界的反馈。这样既能够模拟的很好,也能够在真实环境中运作良好。例如:Q Learning、sarsa、Policy Gradients
这个类型的model就具有疯狂的想象力,想象各个步骤会出现什么样的结果。类似于并行一样,平行世界。根据所有结果选择最好的一种,并根据这种选择进行下一步的操作。

还可以将其分为:
(1)基于概率:通过分析所处的环境,进行分析,计算出下一步为所有行为的概率。然后选取概率较好的那个,采取行动。不一定是概率最大的。例如:Policy Gradients
(2)基于价值:通过分析所处环境,进行分析,计算出下一步所有动作的价值,然后选取价值最大的那个,采取行动 。不能用于连续动作的决策。例如:Q Learning,Sarsa
(3)结合两种方法的优点:Actor-Critic,既会基于概率进行动作 选择,也会根据做出的动作,给出价值。

还还可以分为:
(1)回合更新:比如说在游戏中,每打完一局游戏之后再进行更新。例如:基础版本的Policy Gradients,monte-carlo learning

(2)单步更新:比如在游戏中每走一步就需要更新参数,这样能够边玩边学。例如:Q Learning,Sarsa、升级版Policy Gradients

还还还可以分为:
(1)在线学习(on-policy):就是在一个游戏中,亲自去体验和学习。例如:sarsa、sarsa(λ)
(2)离线学习(off-policy):只需要观看别人玩的记录,自己去总结经验,从而学习。例如:Q Learning、Deep Q Network

四、Q Learning 算法理解(基础)

马尔科夫决策问题 Markov decision problem

简单的理解为,在当前状态下 s,进行一个行为 a,去到下一个状态 s‘
所以我们定义几个变量(以走迷宫为例):

  • State S;//状态,当前的位置状态
  • model T(s,a,s’)//模型(当前状态,行为,下一状态)
  • action A(上,下,左,右);//行为(行动)
  • reward R(s), R(s, a), R(s, a, s');//反馈,进入某个状态下的奖励机制
  • find best policy Π(s) => a;//寻找当前状态下,下一步的行为

其中这个model T可以是一个概率问题,可理解为在s 和a 的条件下,转变为状态s‘ 的概率。

上述的定义可以理解为:

(1)状态 S

假如我们的迷宫是一个 10 * 10 的矩阵,那我们就可以使用 0-99 来表示当前的状态信息。

(2)行为 A

在迷宫中我们就会出现上下左右四种走法,我们可以使用 0-3 表示每一个行为。

(3)奖励 R

R(s),s表示进入的状态;
可以分为:
reward = -1,碰到障碍物或者走出地图;
reward = 1,走到了终点;

(4)模型 T

T(s,a,s’),模型(当前状态,行为,下一状态)
例如:从一个格子走下一步,进入四个方向的概率就会计算出来,比如说,计算得出0.9, 0.1, 0.1, 0.1。那么就会朝0.9
的方向走。

接下来就要进入到 Q Learning 算法 的学习,继续学习算法。
算法详解:https://www.jianshu.com/p/e93eb8b70f35

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 220,137评论 6 511
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,824评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,465评论 0 357
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,131评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,140评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,895评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,535评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,435评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,952评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,081评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,210评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,896评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,552评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,089评论 0 23
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,198评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,531评论 3 375
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,209评论 2 357

推荐阅读更多精彩内容

  • RL 种类 Model-Free RL不理解环境,通过试错来学习 Model-Based RL理解环境,通过想象学...
    谭英智阅读 546评论 0 0
  • https://hunch.net/~beygel/deep_rl_tutorial.pdfhttps://icm...
    斑驳岁月再难觅阅读 2,215评论 0 2
  • 虽然是周末,也保持充电,今天来看看强化学习,不过不是要用它来玩游戏,而是觉得它在制造业,库存,电商,广告,推荐,金...
    不会停的蜗牛阅读 9,490评论 0 29
  • 强化学习 主要分为两个分支,一个是Q-Learning,一个是policy gradient decent,还有一...
    SimonLiu000阅读 1,225评论 0 0
  • 一、什么是强化学习 强化学习是一类算法,是让计算机实现从一开始完全随机的进行操作,通过不断地尝试,从错误中学习,最...
    小道萧兮阅读 32,829评论 5 12