这是 MIT 出版社 Essential Knowledge 系列中《Machine Learning: The New AI》的第一章。
当初读很有启发,最近开始重新学 ML,便用空闲时间翻译过来。
这篇最有意思的两点。第一,从计算机发展的角度来解释当前这个大数据+AI 时代的产生。比起之前我看一些只是提到 Data + Computation 的直接说法,这无疑更让人有种豁然开朗的感觉,因为现在这些很热的词汇 AI,大数据,物联网什么,都跟基础的计算发展有关,如果我们了解这些,那么对它们之间的连接也就更直观,而不是松散的概念。
第二,关于如何从大脑中获得智能理论,之后在进行不同硬件实现的设想。脑洞有点大,挺有意思的。
数字化的力量
在过去半世纪里,计算与数字技术给我们生活带来巨大转变。几世纪前发明的工具,设备和服务,现在越来越多地被其数字化的“e-”版本所取代,而我们自身也在不断地适应这种数字环境。
这种转变非常之快:曾经计算机价格昂贵,只有大组织,如政府,大公司,大学能负担得起。那时也只有这些组织要计算机来解决一些难题,还能承担得起采购和维护的高成本。那时,计算机“中心”,分布在不同楼层或建筑,里面容纳着耗电量巨大的庞然大物,在大厅里,磁带转动,卡片打孔,数字被咀嚼,Bug (本义虫子,又常指程序中的故障) 还是真正的虫子。
很快,随着计算机越来越廉价,可供更多人使用了,于是其应用领域也得到了扩大。一开始计算机只是个计算器,用来加减乘除数字,现在却花样百出。或许计算机技术的主要驱动力便是,当人们意识到每条信息都可数字化。这意味着之前处理数字的计算机,也能用于处理所有类型的信息(数字化的)了。
更确切说,计算机将每个数字表示为0或1的二进制数(比特)序列,之后这种序列也能表示其他信息。例如,“101100”可表示数字 44,同时也是逗号的代码; 同样,“1000001”同时是 65 和大写字母'A'。根据环境,计算机程序用其中一种解释来操作序列。
事实上,此类比特序列不仅可代表数字和文本,还能代表其他类型的信息 - 例如,照片的颜色或歌曲的色调,甚至计算机程序本身就是比特序列。此外,与这些信息相关联的操作(例如使图像更亮或在照片中找到面部)也能被转换为操纵比特序列的命令序列。
计算机存储数据
计算机的强大之处在于每条信息都能数字化表示,并且对于这些表示,都能写成出计算机指令来进行操作。
这就导致了20世纪60年代数据库的出现。数据库是用于存储和操纵数据的特殊程序。此外还有些外存储设备,比如磁带或磁盘,以磁性方式存储数据,即使关机内容也不会被擦除。
有了数据库,计算机就不再只是处理信息的工具,更成了数字化信息的存储库。随着时间推移,数字媒体变得越来越快速,廉价和可靠,以至于取代了纸,成了人类信息存储的主要手段。
之后,微处理器的发明,以及其小型化和成本减少的并行发展,20世纪80年代初起,个人计算机越来越普及。这使得小型企业也能使用计算机了,但最重要的是计算机体积小且便宜,足以让其成为日常家用电器了。这让每个人发现了值得计算机处理的任务,于是应用程序大量增长,随后便是数字技术民主化时代的到来。
图形化界面和鼠标使计算机更易使用。我们不用学习编程,也不用记住各种复杂的指令。屏幕就是工作环境的数字模拟,有虚拟桌面,有文件,有图标,甚至有垃圾桶,鼠标就是虚拟手,可以用它来选择,阅读或编辑。
同时,软件也从商业应用转向了个人应用,通过处理更多类型数据,让生活更加数字化了。我们有文字处理器(Word)来处理信件和其他个人文件,有电子表格(Excel)来处理家用计算,还有音乐或摄影等爱好的软件;如果想,还能用它来玩游戏!计算已经成了日常。
用户界面,还有各种日常应用,意味着人与计算机之间的一种和解,过去所熟悉的现实世界和数字世界的和解。计算机被编程得更好地适应我们的生活,而我们也慢慢地一点点去适应它们。随着时间推移,使用电脑已是基本技能。
个人计算机使数字技术成为生活中的一个重要部分,对于这里要讲到的故事而言,最重要的是它让生活更多地被以数字方式记录下来。因此,它是将我们生活数据化中很重要的基石,之后这些数据可用来分析和学习。
计算机交换数据
计算机的下一个重要发展便是连通性。虽然,之前有通过数据传输器连接计算机交换信息,但通过电话线或专用线路,将个人计算机彼此连接或连接到服务器的商业系统,却要等到90年代才普及起来。
计算机网络意味着计算机不再是孤立的了,而可以与远程的计算机交换数据。用户不再局限于访问自己计算机的数据,还能访问其他地方的数据,如果想,也能将数据分享给其他用户。
计算机网络的发展很快便在因特网中到达了顶峰,因特网是一个覆盖全球的计算机网络。因特网使世界上任何能用计算机的人,都能向其他任何人发送电子邮件等信息。而且因为所有数据和设备都已数字化,于是可共享的信息就不仅仅是文本和数字;还能是图像,视频,音乐以及其他任何东西。
通过计算机网络,数字化信息能以光速发给在任何地方的任何人。至此,计算机就不再仅仅只是存储和处理数据的机器,它也成为了传输和共享信息的手段。计算机网络发展很快,数字通信慢慢变得廉价,快速和可靠,以至于数字传输已取代实体邮件,成了信息传输的主要方式。
任何“在线”的人都能在计算机上通过网络向其他人分享数据,这便是万维网诞生的方式。人们可以在“网上”冲浪,浏览这些共享信息。很快,通过安全协议还能共享一些机密信息,从而允许通过网络进行商业交易,例如在线购物或银行业务。这种在线连接性进一步增加了数字技术的渗透。当使用网络服务提供商的“www.”门户获得在线服务时,计算机就会变成商店,银行,图书馆或大学的数字版本;这,反过来,又创造了更多数据。
移动计算
每十年我们都能看到计算机变得越来越小,随着电池技术的进步,在20世纪90年代中期,笔记本电脑也开始普及起来; 这开启了移动计算的新时代。同一时间,手机也开始流行起来。在2005年左右,这两项技术又都融入了智能手机中。
智能手机是种同时是计算机的手机。现在智能手机越来越智能,以至于手机最初的打电话功能,如今只是智能手机上众多应用中的一个,还很少被用到。传统手机是种声学设备:你跟它说话,同时能听到另一端的人说话。而今天的智能手机更像是个视觉设备; 它有个大屏幕,我们花更多时间在看屏幕,点击它,而不是在说话。
智能手机就是台始终在线的计算机,它允许用户在移动时访问互联网,获得各种信息。因此,它扩展了我们的连接性,让我们更容易地连接网络,例如在旅行时访问其他计算机上的数据。此外,它还让我们和我们的数据更容易被他人访问了。
智能手机的一大特殊在于,它也是种移动传感设备,因为它始终在我们身上,可以不断记录我们的信息,特别是位置,并可以提供这些数据。智能手机让我们可以被检测,被追踪,被记录。
计算机移动性的提高也只是最近的事情。最早计算机很大,在“计算中心”里;它保持固定,我们需要走到它面前使用。然后,我们可以坐在终端前使用计算机。再然后,一台小型计算机出现在我们部门里,再然后,一台较小的计算机放在我们办公室或家里的桌子上,再然后,一台更小的计算机出现在我们腿上,而现在,计算机已经放在我们口袋里,天天陪伴我们了。
最早,计算机很少,可能每千人才有一台计算机,比如每个公司或校园有台计算机。这种人机比增加得非常快,而个人计算机的目标便是为每人配备一台计算机。今天每个人都有很多台计算机。别不信,其实现在我们所有的设备都是计算机,或里面有计算机。你的手机是台计算机,你的电视也是,你的车内有许多计算机用于不同功能,而你的iPod播放器就如你的相机或手表一样是台特殊的计算机。智能设备就是台计算机,一台可完成数字版所需功能的计算机。
普适计算是一个越来越受欢迎的术语;它意味着使用计算机,却又意识不到在使用计算机。这意味着时刻使用大量计算机用于各种目的,而无需明确地将其称为计算机。数字版本的功能,具有其通常的优点,例如速度,准确性和易适应性。而另一个优点是,设备的数字版本可记录数字化的所有数据。此外,如果它在线,还能与其他在线计算机交流,并提供其数据。我们称它们为“智能物件”,并将它们的连接称为物联网。
社交数据
几千年前,如果你想被画被雕刻,或让你的故事被记住和传颂,你得是神。一千年前,你需要成为国王或王后,几个世纪前,你需要成为富商或他的家人。然而现在,任何人,甚至汤罐头也可以被画。计算和数据也发生了类似的民主化。曾经只有大型组织才有值得用计算机去解决的任务,也只有它们拥有数据;而从个人计算机开始,人们甚至是物件也成了数据的生成者。
数据一个最近的来源是社交媒体,它是我们社交互动的数字化,它取代了过去在集市,广场,市场中的讨论;我们可对它的数据进行收集,存储和分析。
通过社交媒体,每个人现在都是名人,每个人的生活都值得关注,我们是自己的狗仔队。每次我们在线,我们就是名人。社交媒体允许我们在生活中写下自己的数字自传。在过去,书籍和报纸价格昂贵,很少有东西能被记下来,除了那些英雄伟人的故事。而现在记录数据变得很廉价,每个人都是自己小小在线领土的国王和王后。今天,宠爱孩子的父母,在孩子第一个月产生的数据,就比荷马讲述完奥德修斯的完整冒险的数据还多。
大数据:数据冲击
所有由数字化机器和服务产生的数据,都曾被认为是数字化的副产品。而如今科学家为了有效地存储和操作大量数据,已对数据库进行大量研究,存储数据是因为我们需要它。在过去二十年里,所有这些数据都成了一种资源;更多数据意味着更好。
设想一下,如果一家超市连锁店每天向数百万客户销售数千种商品,无论是在各地的实体店中,还是通过网上的虚拟商店。销售点终端都是数字化的,并记录每笔交易的详细信息:客户ID,购买的商品和价格,花费的总金额等等。这些商店都连接着网络,于是所有商店中所有终端的数据就可以马上传输到中央数据库中。这相当于每天都有很多(而且最新的)数据。
数据开始推动一切;不再是程序员,而是数据本身开始定义下一步该做什么。
在过去二十多年里,人们越发开始问自己,我们可以用这些数据做些什么。有了这个问题,整个计算机发展方向便发生了逆转。过去,程序处理数据,又吐出来数据——数据是被动的。而现在,数据本身开始推动操作;于是便不再是程序员,而是数据定义下一步该如何做。
比如,超市连锁店总希望知道哪位顾客可能会购买哪种商品。知道这些后,商店就能更有效地存货,这将增加销售和利润;还能提高客户满意度,因为客户能更快,更便捷地找到最符合其需求的产品。
然而这项任务并不简单。我们不知道哪些人可能会购买这种口味冰淇淋,或看这部新电影。此外客户行为还会随时间,地理位置而变化。
但我们能知道的是,客户行为并非完全随机。人们不会去超市随意买东西。当他们买啤酒时,也会买薯片;他们在夏天买冰淇淋,在冬天买 Glühwein 的香料。客户行为中存在某些模式,这就是数据发挥作用的地方。
虽然我们不了解客户行为模式,但我们希望在收集到的数据中看到它们。如果能在过去的数据中找到这种模式,那么就可以假设未来,至少在不久的将来,发生的将与收集到的数据没太大不同,我们可以对其做出预测。
我们或许无法完全一致的发现背后的行为模式,但至少能构建出一个良好且有用的近似值。这种近似或许无法解释所有过程,但可以解释部分数据,检测到一些模式。之后我们可以用这些模式来进行预测;它们也能帮助理解完整的行为模式。
这被称为数据挖掘。类比自挖矿,从大量泥土中挖掘出少量非常珍贵的材料。同样,在数据挖掘中,我们处理大量数据以构造具有使用价值的简单模型,比如说有高预测准确性的模型。
数据挖掘是一种机器学习。因为我们不知道客户行为的规则,无法编写程序,但计算机可以通过从客户的数据中提取出规则,来进行“学习”。
现在,许多潜在的应用存在于我们不知道规则,但却有大量数据的地方。企业大量使用计算机和数字技术意味着,各种领域都有大量数据。个人在日常社交中也总使用计算机或智能设备,因此我们也有大量相关数据。
除了公司和个人数据,另一个数据来源是科学。随着更好的传感器的出现,可以检测到更多数据,比如在天文学,生物学,物理学。我们需要用学习算法来理解这些越来越多的数据。
互联网本身就是一个巨大的数据库,我们需要智能算法来帮忙找到想要的东西。我们今天拥有的数据的一个重要特征是,它是多模态的,对于同一件感兴趣的对象或事件,相关数据有文字,图像,还有声音等等各种形式。因此,现在机器学习的一个大的挑战是,如何结合这些不同来源的数据。例如,在消费者数据分析中,除了过去的交易数据外,还有 Web 日志,这些日志也可能很有用。
随着在日常中使用越来越多的智能设备,我们都成为了数据的生产者。每当购买产品,租用电影,访问网页,写博客或在社交媒体上发帖时,甚至走路或开车时,我们都在生成数据。这些数据对于有兴趣收集和分析的人来说很有价值,因为客户们总是对的。此外数据本身也很有趣。
同时,我们每个人不仅是数据生产者,同时也是数据消费者。我们希望得到定制化的产品和服务,希望需求能被理解,兴趣能被迎合。这都得靠分析我们过去的数据。
学习 VS 编程
为了用计算机解决问题,我们需要算法。算法就是一系列指令,用来将输入转为输出。例如,可以设计一个用于排序的算法,输入是一组数字,而输出是这些数的有序数列。对于相同的任务,可能存在多个算法,有时可能对最有效的算法感兴趣,有时可能对最少指令或内存的算法感兴趣,也或者都关注。
然而,对某些问题,没有算法来解决。比如预测客户行为;还有区分垃圾邮件。我们知道输入:电子邮件,最简单的情况就是文本消息。我们知道输出:判断是否为垃圾邮件。但却不知道如何将输入转换为输出。什么被认为是垃圾邮件的标准是随时间而变化的,而且对于不同人也是不同的。
这些缺失的知识,就只能从数据中寻找了。我们可以轻松地编译成千上万条消息,其中一些知道是垃圾邮件,其中一些不是,我们想要的是,从这些样本中“学习”到什么是垃圾邮件。换句话说,我们希望计算机自动提取该任务的算法。虽然没有必要去学习排序数组的算法(已经有了),但有很多应用我们并没有算法,却有大量数据。
人工智能
机器学习不仅只是个数据库或编程问题;它也是人工智能的必要条件。一个处于不断变化环境中的系统,应具备学习能力;否则很难称为聪明。如果系统能学习并适应变化,系统设计者就无需预测,为所有可能情况提供解决方案。
对人类来说,进化就是我们的系统设计师,我们身体的形状,以及内在直觉反应都发展了数百万年。我们还学会了如何在生活中改变自己的行为,这有助于应对进化无法预测的环境变化。在一个明确定义的环境中,一个简单生命可能会内置所有行为模式,但比起这种对生活中每种模式编码出一个应对方法,进化给了我们大脑和其中的学习机制,让我们能通过经验更新自己,适应不同的环境。这就是为什么人类能在非常不同的气候和条件下,在全球不同地区生存繁荣。当我们在某种情况下学到最佳策略时,知识就会存储在大脑中,当情况再次出现,就会回想起合适的策略并采取相应的行动。
我们每个人,甚至说每个动物,都是数据科学家。我们从传感器收集数据,然后处理数据以获得抽象规则来认知环境,并控制在该环境中的行为,以最小化疼痛或最大化愉悦。我们可以用记忆将这些规则存储在大脑中,然后在需要时回忆并使用。并且学习是终身的,之后当环境发生变化,我们会遗忘或修改不再适用的规则。
然而,学习有其局限性。可能有些东西永远无法通过大脑有限的能力来学习,就像我们永远无法“学习“长出第三只手,或者是脑袋后长出眼睛(这得改变基因构成)。粗略地说,遗传学定义了能工作上万代的硬件,而学习则定义了在个人生命周期中运行在硬件上的软件。
人工智能虽然可从大脑获得启发。比如,认知科学家和神经科学家的为了了解大脑功能,建立了神经网络模型,并进行模拟研究。然而,人工智能现在主要是计算机科学的一部分,我们的目标是建立有用的系统,如在其他工程领域一样。因此,虽然大脑给了启发,但最终我们并不太关心所开发算法的生物合理性。
我们对大脑感兴趣,是因为相信它能帮我们构建更好的计算机系统。大脑具有很多强大的功能,在许多领域超越了当前的工程产品 - 例如视觉,语音识别和学习方面。如果能在机器上实施这些,那么这些应用将具有非常大的经济效益。如果我们能够理解大脑如何实现这些功能的,就能将这些任务的解决方案转换成正式算法,并在计算机上实现。
计算机也被称为“电脑”,但计算机和大脑是不同的。计算机通常具有一个或多个处理器,而大脑则由大量的处理单元(神经元)组成,进行并行操作。尽管细节尚未太清楚,但一般认为这些处理单元比计算机中的一般处理器更简单和更慢。另一个让大脑与众不同,并被认为提供其计算能力的特性,是它的超强连接性。大脑中的神经元与成千上万的其他神经元用突触连接,并且并行运行。在计算机中,处理器是主动一直运行的,而存储器则是分离和被动的;然而在大脑中的处理器和存储器,确是分布在网络上的,处理由神经元完成,记忆发生在神经元的突触中。
了解大脑
根据 Marr(1982)的观点,一个信息处理系统可分为三个层次来理解:
对应计算目标和任务抽象定义的计算理论;
表示和算法,关于如何表示输入和输出,以及关于从输入转换到输出的算法的规范;
硬件实现是系统的实际物理实现。
这背后的思想是,对于相同计算理论,可能存在多个表示和操纵该表示中符号的算法。类似的,对于任何给定表示和算法,可能存在多个硬件实现。对于任何理论,可用众多算法中的一个,对于这个算法,可用多个不同硬件中的一个实现。
举个例子:'6','VI'和'110'是数字六的三种表示;分别是阿拉伯数字,罗马数字和二进制数。根据所用表示,我们有不同的加法算法。数字计算机用二进制数,并且用特定电路对它做加法,这是种特定的硬件实现。而在算盘上,数字表示是不同的,而且加法操作也对应不同指令集,这是另一种硬件实现。当我们在脑袋中加两个数时,会使用另一种表示,和适合于该表示的算法,该算法由神经元实现。然而,所有这些硬件实现,大脑,算盘,计算机,都是为了实现同一个计算理论:加法。
还有一个典型的例子是,自然飞行器和人造飞行器的区别。一只麻雀拍打翅膀来飞;而一架飞机机翼却不能拍打,而是用喷气式发动机。麻雀和飞机是为不同目的而构建的两种硬件实现,满足不同约束。但都实现了相同的理论,即空气动力学。
从这个角度,我们可以说大脑是一种用于学习的硬件实现。如果从这个实现中,能逆向工程提取出所用的表示和算法,然后从中获得其所实现的计算理论,那么就可以用另一种表示和算法,用现有的更适合的硬件来实现,并且希望这个实现能更便宜,更快捷,更准确。
正如发现空气动力学理论过程一样,最初大家尝试建造的飞行器看起来很像鸟类,因此也能预期,最初搭建具有大脑能力的系统时,也会是看起来像是具有大量处理单元网络的大脑。在未来,当我们发现了智能的计算理论时,或许会发现神经元和突触只不过是实现细节,就像羽毛之于飞行一样。
模式识别
在计算机科学里,很多任务我们都试着搭建,由人工规则和算法组成的“专家系统”。然而几十年却只取得了非常有限的成果。这里面涉及到的很多任务,都被认为需要一定程度的智能。而最近,一个方法让我们看到了巨大进展,那就是在大量数据中使用机器学习。
举个面孔识别的例子:人类能毫不费力地做到,我们每天都看脸或照片来识别家人和朋友,就算姿势,灯光,发型等方面有差异,也能轻松识别出来。面部感知对人类很重要,因为我们要借来区分朋友和敌人。除了识别功能,这和生存也有很大关系,因为面部相当于我们内部状态的仪表板。从脸上可以读到诸如快乐,愤怒,惊讶和羞耻之类的感觉,我们进化到了不光会展示这些状态,也能从别人身上发现这些状态。
虽然我们很容易就能做出这样的识别,但却是无意识和本能的,自己无法解释是如何做到的。正因为无法解释是如何做到的,所以也就无法编写相应计算机程序。
而通过分析一个人的不同面部图像,一个学习系统则会捕获到特定于该人的模式,之后检测给定图像中是否有该模式。这是模式识别的一个例子。
我们能做到这个是因为,面部图像就像任何自然图像一样,不只是随机像素的集合(比如花屏的电视)。脸有其结构。它是对称的,眼睛,鼻子和嘴巴位于脸部的某些部位。每个人的脸,都是这些部位特定组合的一种模式。当照明或姿势发生变化时,当头发变长或戴上眼镜时,或当我们变老时,脸部图像的某些部分会变化,但有些部分却不会。这类似于客户行为中定期购买和冲动购买。学习算法通过遍历该一个人的多个图像,来找到不变的辨别特征,还有它们如何特定组合来定义这个人的脸。
当我们谈学习的时候都谈些什么
在机器学习中,目标是构建能拟合给定数据的程序。学习程序与普通程序不同之处在于,它是个具有可变参数的通用模板,并能为这些参数分配不同的值,来做不同的事情。学习算法可以通过调节模板(模型)的参数,不断优化在数据上定义的性能指标。
例如,对于面部识别器,学习算法会调整参数,以使得在一组训练图像上获得最高的预测准确度。这种学习通常是重复和渐进的。学习程序一个个地看大量样本图像,对于每个样本,参数都稍微更新一点,以便性能逐渐提高。就像人的学习过程:当我们学习任务时,也是一步步学习它,慢慢做得更好,无论是网球,几何学还是外语。
在构建学习系统时,主要需考虑:
应记住,仅仅拥有大量数据,并不意味着就有可学习的规则。首先应确保底层规则是存在相关性,并且收集的数据能提供足够信息,以便能以一定准确度学习它们。假设有一本包含人名和电话号码的电话簿,那么认为名字和电话号码之间有关系,然后用电话簿(无论多大)进行学习训练,之后看到新名称来预测相应电话号码的行为是完全没有意义的。
其次,学习算法本身应是高效的,因为通常我们会有很多数据,并希望学习尽可能快,并能有效地使用计算和内存资源。还有在许多应用中,问题的隐藏特性可能会随时间而变化;在这种情况下,先前收集的数据会变得过时,就要用新数据来有效地更新训练模型。
最后,一旦学习系统被构建出,并开始使用它进行预测,它在记忆和计算方面也应是高效的。在某些应用中,最终模型的高效性,可能与其预测准确性一样重要。
历史
几乎所有的科学都是用模型来拟合数据。科学家,如伽利略,牛顿和孟德尔,他们设计实验,然后进行观察并收集数据。之后,试图通过设计理论来提取出知识,即建立模型来解释观察到的数据。之后再用这些理论来进行预测,如果预测错误,就收集更多数据并修改理论。这个数据收集和理论(模型)构建过程一直持续到他们得到了具有足够解释能力的模型为止。
我们现在已经到了很难再对这些数据进行手动分析的地步,因为数据量巨大,难以进行人工分析。而且能进行这种分析的人并不多。因此,人们开始越来越关注,能自动分析数据,并从中提取信息的计算机程序,即学习系统。
学习算法起源于不同的科学领域。有时相同或非常相似的算法,通过不同的历史路径,在不同的领域中独立发明出来并不罕见。
机器学习的主要理论来自统计学,其中从特定观察到一般描述被称为推理 (inference),而学习被称为估计(estimation)。分类在统计学中称为判别分析。统计学家过去常常在小样本上工作,而且作为数学家,他们主要研究能用数学方法分析的简单模型。而在工程中,分类被称为模式识别,方法更经验主义。
在计算机科学中,作为人工智能研究的一部分,也对学习算法进行了研究;同时有一个平行但几乎独立的研究,被称为数据库中的知识发现;在电气工程中,信号处理的研究,产生了自适应图像处理和语音识别程序。
在20世纪80年代中期,人们对各个学科的人工神经网络模型产生了巨大的兴趣。这些学科包括物理学,统计学,心理学,认知科学,神经科学和语言学,更别说计算机科学,电气工程和自适应控制领域。也许神经网络研究最重要的贡献便是这种跨学科的共同作用,特别是统计学和计算机科学。始于20世纪80年代的神经网络研究并非偶然。那时,随着VLSI(超大规模集成)技术的进步,我们获得了构建有着数千个处理器的并行运算硬件的能力,而神经网络作为一种,可以将计算分布在大量处理单元并行运算的理论,也就引起了大家的兴趣。并且,因为可以自我学习,而不需要人工编程,大家兴趣就更大了。