读心与芯:我们与机器人的无限未来04机器人学习

读心与芯:我们与机器人的无限未来04机器人学习.png

1. 触觉中的大脑

1.1. 自主或灵巧操作

  • 1.1.1. 机器人必须能安全有效地与世界中的人和物玩耍、工作,只有这样,它才可以走出工厂的牢笼,发挥其潜力

1.2. 从工程学和编程的角度看,建造飞往火星的机器人比建造可以清理餐桌的机器人容易

  • 1.2.1. 自动驾驶汽车或在火星上空巡航的机器人运行于自由空间,不与物理世界中的物体或生物互动,其目标恰恰是避免互动

  • 1.2.2. 制造能移动且避免与其他物体或生物接触的机器人是我们的强项

1.3. 制造主动与物理世界接触的机器人却是另一类问题

1.4. 食谱是用人类能理解的语言(比如英语)写的,机器人不能很好地理解自然语言

  • 1.4.1. 机器智能可以阅读文本,并根据之前训练过的许多文本预测接下来应该出现的单词或短语

  • 1.4.2. 还可以将英语翻译成法语,准确性非常高,但无法理解词的真正含义

  • 1.4.3. 机器人必须先将人类的食谱转换成它可以理解的食谱,也就是说,食谱上的每个动作都必须转换为机器人可以实际执行的一个或一系列动作

  • 1.4.4. 烘焙机器人必须制订计划

1.5. 设计机械手以及引导它的算法需要对所涉及的力有深入的了解

1.6. Rocycle在无法确定物体是纸还是塑料时,会轻轻挤压物体,根据变形程度做出判断

  • 1.6.1. 塑料比纸稍硬,对手指的后推力较大

  • 1.6.2. 敏感的机械手让整个机器人变得更智能

1.7. 在开发机械手和引导它们的大脑方面还有许多工作要做,但如今我们建造的机器人能做的远不只是切蛋糕

  • 1.7.1. 在各个生活层面可执行的任务将包罗万象

  • 1.7.2. 在医院、敬老院和儿童护理机构中,它们可以成为更得力的助手

  • 1.7.3. 在工厂和仓库,它们可以做更多艰苦的工作

  • 1.7.4. 在不利于人类的环境中,它们可以承担更危险的任务

  • 1.7.5. 还可以帮助我们探索深海和外太空中的一切

1.8. 如果真心希望机器人发挥潜力(无论是操纵世界上的物体,还是在世界中移动),就必须让它们具备学习能力

2. 机器人的学习

2.1. 如果想让机器人具备这种功能,工程学或编程的解决方案远远不够—机器人要能挖掘数据,研究过去的经验(包括自己的经验和其他机器人的经验),了解过去发生了什么、将来可能会发生什么、下一步该做什么以及如何做

  • 2.1.1. 它们要能学习,并与其他机器人分享学到的知识

2.2. 学习简化了较高层次的推理和规划过程,因而机器人能以我们期望的速度运行

2.3. 我们在不同的抽象层面做了很多计划,但也从过去的经验和可用数据中学习,能够更快、更高效、更熟练地执行计划和行动

2.4. 奖励是学习的重要组成部分,我们对机器人也实施奖励

2.5. 试错法被称为强化学习,可应用于机器人的诸多任务与技能学习

  • 2.5.1. 强化学习非常有效,但必须进行多次迭代,因而计算成本很高—包括计算机的运作成本、与运行学习程序相关的电力成本,以及强化学习所需的资金成本

  • 2.5.2. 强化学习的可预测性较低

  • 2.5.3. 模拟产生了有效或看似有效的算法或系统,但你已经让系统自学了,没有进行操作编程,也没有告诉机器人怎样按你的设想去做,所以你不了解机器人行动的理由,因而很难证明系统会永远有效,或者在不可预见的情况下会怎么做

    • 2.5.3.1. 如果系统出了问题,你也很难解释其原因

2.6. 教机器人在现实世界中学习有其优势,但即使它可以独立学习,并在我们睡觉时彻夜实验,其进度仍然较慢

2.7. 模拟学习的速度极快

  • 2.7.1. 虚拟猎豹通过自学学会了奔跑

2.8. 通过编程,将基本的自然法则和物理定律纳入虚拟世界

  • 2.8.1. 模拟试验还训练了机器人处理突发事件的能力

2.9. 强化学习开启了令人难以置信的可能性

  • 2.9.1. OpenAI的机械手将试错与推理相结合,解开了魔方

  • 2.9.2. 系统学会了如何控制手指中的电机和手的方向,从而改变单个方块的配置,在魔方不掉落的情况下解开它

2.10. 谷歌旗下的自动驾驶汽车Waymo背后的技术在现实世界中行驶了超过2000万英里,但大多数研究人员没有资源运作如此大规模的项目

2.11. 机器学习的成功可追溯到20世纪70年代人们对计算机视觉的早期探索

  • 2.11.1. 李飞飞及其学生开始编译ImageNet,这是一个庞大的数据集,算法分割了其中每张图片中的所有对象

2.12. 机器的学习方式也与人类不同

  • 2.12.1. 机器学习技术是通过被称为“人工神经元”的计算单元构建的

  • 2.12.2. 机器学习系统贯穿多个相互关联的处理层,具体取决于数据类型,比如图像、文本、视频序列、传感器数据流等

2.13. 像素改变是对抗性攻击的一个例子

  • 2.13.1. 针对停车标志图像的对抗性攻击,它突显了此类系统中存在的一个关键缺陷

  • 2.13.2. 对图像进行精确的调整,这些变化足以欺骗机器学习系统,让它以为自己看到的是让行标志

  • 2.13.3. 在人类眼中,它仍然很像停车标志

  • 2.13.4. 受到扰动的图像与原始图像之间的差异小到难以察觉,但对抗性攻击带来的细微变化却让机器学习引擎产生误差

    • 2.13.4.1. 一个重大缺陷
  • 2.13.5. 攻击严重损害了自动驾驶汽车的判断力,我们不希望它如此脆弱

  • 2.13.6. 机器人分不清狗和鸵鸟可能会让人觉得有趣,如果机器人想带着鸵鸟散步就更可笑了,但将停车标志看成让行标志可能会导致严重的交通事故

2.14. 机器学习的缺点是脆弱、规模庞大、计算量大、缺乏可解释性、存在偏见

3. 液态网络

3.1. 秀丽隐杆线虫

  • 3.1.1. 一种紧凑的、可解释的新模型,我们称之为“液态网络”(liquid networks)

  • 3.1.2. 这302个神经元中的每一个都做着相当复杂的数学工作,有效地计算微分方程

3.2. 一种紧凑的、可解释的新模型,我们称之为“液态网络”(liquid networks)

3.3. 人工大脑中的神经元更少,但每个神经元的作用更大

3.4. 液态网络不需要让人工神经元进行较高级的计算,而且网络的规模和计算需求要小得多

3.5. 意味着它们专注于指定任务中的重要事情,而不是任务的背景

  • 3.5.1. 液态网络具有这种能力,但今天的机器人大脑是基于深度神经网络模型构建的,不一定以这种方式运行

3.6. 液态网络的神经元仅有19个,而用于比较的深度神经网络有超过10万个神经元,但前者的人工大脑能通过观察人类开车来学习如何驾驶

  • 3.6.1. 液态网络通过自学,学会了如何将转向控制与道路曲率相关联,以及如何避开障碍物

  • 3.6.2. 液态网络在操纵转向时,注意力集中在地平线和道路两侧

  • 3.6.3. 深度学习模型的注意力没那么集中,机器人观察树木、灌木丛、天空和道路,表现得更像一个心不在焉的司机

3.7. 优点:我们可以查明其行为的原因

  • 3.7.1. 只有19个神经元,我们可以提取决策树,以人类可理解的形式解释网络如何做出选择,并揭示每个神经元在不同行为类型中的作用
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容