读AI3.0笔记09_常识.png
1. 人类天生具备的核心知识
1.1. 是我们与生俱来的或很早就学习到的最为基本的常识
1.1.1. 即便是小婴儿也知道,世界被分为不同的“物体”,而且一个物体的各个组成部分会一起移动
1.1.2. 同时,即便某一物体的某些部分在视野中看不见了,它们仍然是该物体的一部分
1.2. 直觉
1.2.1. 由于我们人类是一种典型的社会型物种,从婴儿时期开始我们逐步发展出了直觉心理
1.2.1.1. 感知并预测他人的感受、信念和目标的能力
1.2.2. 直觉知识的这些核心主体构成了人类认知发展的基石,支撑着人类学习和思考的方方面面
1.3. 模拟
1.4. 隐喻
1.4.1. 通过核心物理知识来理解抽象概念
1.5. 抽象与类比
1.5.1. 抽象是将特定的概念和情境识别为更一般的类别的能力
1.5.2. 类比在很多时候是我们无意识的行为,这种能力是我们抽象能力和概念形成的基础
1.6. 反思
1.6.1. 人类智能的一个必不可少的方面,是感知并反思自己的思维能力
1.6.2. 这也是人工智能领域近来很少讨论的一
1.6.3. 在心理学中,这被称作“元认知”
2. 意义的障碍
2.1. barrier of meaning
2.2. 人类能够以某种深刻且本质的方式来理解他们面对的情境,然而,目前还没有任何一个人工智能系统具备这样的理解力
2.3. 当前最先进的人工智能系统在完成某些特定的细分领域的任务上拥有比肩人类的能力,甚至在某些情况下的表现已经超越人类
2.3.1. 这些系统都缺乏理解人类在感知、语言和推理上赋予的丰富意义的能力
2.4. 孩提时代,我们人类学习了大量关于世界上的物体如何运转的知识,在我们成年后,就完全将其视为理所当然,甚至意识不到自己具备这些知识
2.5. 婴儿会发展出自己对世界上的因果关系的洞察力
2.6. 心理学家为此创造了术语“直觉物理学”(intuitive physics)来描述人类对物体及其运转规则所具有的基本知识
2.7. 直觉生物学
2.7.1. intuitive biology
2.8. 人类是一种典型的社会型物种,从婴儿时期开始我们逐步发展出了直觉心理:感知并预测他人的感受、信念和目标的能力
3. 预测可能的未来
3.1. 理解力是一种预测力,而预测力与我们的经历息息相关
3.2. 理解任何情况,其本质是一种能够预测接下来可能会发生什么的能力
3.3. 神经科学家还不清楚这种心智模型或运行在其之上的心智模拟,是如何从数十亿相互连接的神经元的活动中产生的
3.4. 一个人对概念和情境的理解正是通过这些心智模拟来激活自己之前的亲身经历,并想象可能需要采取的行动。
4. 理解即模拟
4.1. 心理学家劳伦斯·巴斯劳(Lawrence Barsalou)是“理解即模拟”(understanding
as simulation)假说最为知名的支持者之一
4.2. 当人们理解一段文本时,他们构建模拟来表征其感知、运动和情感等内容。模拟似乎是意义表达的核心
4.2.1. 巴斯劳
4.3. 即便是最为抽象的概念,我们也是通过对这些概念所发生的具体场景进行心智模拟来理解的
4.4. 对感觉-运动(sensory-motor)状态的重演(即模拟)来进行概念处理
4.4.1. 这一假说最具说服力的证据来自对隐喻的认知研究
5. 隐喻
5.1. 隐喻是一种以并不完全真实的方式来描述一个物体或动作,但有助于解释一个想法或做出一个比较的修辞手法
5.2. 隐喻经常应用在诗歌等文学体裁上,以及人们想要为其语言增添一些文采的时候
5.3. 不管一个人感受到的是身体上的温暖还是社交上的“温暖”,激活的似乎都是大脑的相同区域
5.4. 抛开意识来谈理解是困难的
5.5. 循环因果关系类似于侯世达所说的意识的“怪圈”
5.5.1. 符号和物理层面相互作用,并颠倒了因果关系,符号似乎拥有了自由意志,并获得了推动粒子运动的自相矛盾的能力
6. 抽象与类比
6.1. 自20世纪50年代以来,人工智能领域的研究探索了很多让人类思想的关键方面,如核心直觉知识、抽象与做类比等,融入机器智能的方法,以使得人工智能系统能够真正理解它们所遇到的情境
6.2. 我们拥有的核心知识,有些是与生俱来的,有些是在成长过程中学到的
6.3. 侯世达几十年来一直研究抽象和做类比,在一种非常一般的意义上将做类比定义为:对两件事之间共同本质的感知
6.4. 抽象与“做类比”(analogy making)密切相关
6.5. 没有概念就没有思想,没有类比就没有概念
6.5.1. 心理学家伊曼纽尔·桑德尔(Emmanuel Sander)在《表象与本质》中
7. 让计算机具备核心直觉知识
7.1. 通过“内在建构”的方法来捕获足够的人类常识以在机器中实现人类水平的智能,看起来是完全合理的
7.2. 坚持为机器人工编写常识的最著名和持续时间最久的是道格拉斯·雷纳特(Douglas Lenat)的“Cyc”项目
7.2.1. 要想令人工智能实现真正进步,就需要让机器具备常识
7.2.2. 他决定创建一个庞大的关于世界的事实和逻辑规则的集合,并且使程序能够使用这些逻辑规则来推断出它们所需要的事实
7.2.3. 1984年,雷纳特放弃了他的学术职位,创办了一家名为“Cycorp”的公司来实现这一目标
7.3. 雷纳特的目标是让Cyc涵盖人类拥有的所有不成文的知识,或者至少涵盖足以使人工智能系统在视觉、语言、规划、推理和其他领域中达到人类水平的知识
7.4. 在Cyc中,专家是指人工将他们关于世界的知识转化为逻辑语句的人
7.5. Cyc的知识库比MYCIN的要大得多,Cyc的逻辑推理算法也更复杂
7.5.1. 项目有相同的核心理念:智能可通过在一个足够广泛的显性知识集合上运行人类编码的规则来获取
7.6. 在当今由深度学习主导的人工智能领域内,Cyc是仅存的大规模符号人工智能的成果之一
7.6.1. Cyc无法通过其大量事实组成的集合和一般逻辑推理来获得与人类拥有的抽象和类比能力相类似的技能
7.7. 很多处于我们潜意识里的知识,我们甚至不知道自己拥有这些知识,或者说常识,但是它们是我们人类所共有的,而且是在任何地方都没有记载的知识
7.7.1. 包括我们在物理学、生物学和心理学上的许多核心直觉知识,这些知识是所有我们关于世界的更广泛的知识的基础
7.7.2. 如果你没有有意识地认识到自己知道什么,你就不能成为向一台计算机明确地提供这些知识的专家
7.8. 我们的常识是由抽象和类比支配的,如果没有这些能力,我们所谓的常识就不可能存在
7.9. 当深度学习开始展示其一系列非凡的成功时,不管是人工智能领域的内行还是外行,大家都乐观地认为我们即将实现通用的、人类水平的人工智能了
7.9.1. 即便是最成功的系统,也无法在其狭窄的专业领域之外进行良好的泛化、形成抽象概念或者学会因果关系
7.9.2. 它们经常会犯一些不像人类会犯的错误
7.9.3. 在对抗样本上表现出的脆弱性
7.9.4. 它们并不真正理解我们教给它们的概念
7.10. 关于是否可以用更多的数据或更深的网络来弥补这些差距,还是说有某些更基本的东西被遗失了,人们尚未达成一致意见
8. 邦加德问题
8.1. Bongard problems
8.2. 由俄罗斯计算机科学家米哈伊尔·邦加德(Mikhail
Bongard)设置的
8.3. 在1967年出版了一本名为《模式识别》(Pattern
Recognition)的俄文书