姓名:孟永超 学号:22011110013
转自:https://blog.csdn.net/pypyai_/article/details/113604283?spm=1001.2014.3001.5501
【嵌牛导读】
近年来,人工智能一直在蓬勃发展,并经常成为一个新闻话题。但是,为什么呢?
人工智能研究始于20世纪中叶,当时数学家艾伦·图灵(Alan Turing)在1950年的一篇著名论文中提出了“机器可以思考吗?”的问题。然而,直到21世纪,人工智能才塑造了影响着全球数十亿人口和大多数行业的现实应用。
在本文中,我们将探讨AI迅速崛起的主要原因。从本质上讲,它可以归结为6个关键因素,这些因素创造了令人难以置信的强大环境,使AI研究人员和从业人员能够开发从电影推荐(Netflix)到自动驾驶汽车(Waymo)到进行语音识别(Alexa)的预测系统。
【嵌牛鼻子】人工智能、关键因素、自动驾驶、语音识别、预测系统
【嵌牛提问】 什么是人工智能?AI崛起的主要原因是什么?
【嵌牛正文】
1.大数据
首先我们先看一下研究和咨询公司Gartner对大数据的正式定义:
“大数据是需要高性价比,创新形式的信息处理形式的大容量,高速度或多种类的信息资产,以增强洞察力,决策和流程自动化。”
简而言之,计算机、互联网、智能手机和其他设备使我们能够访问并生成大量数据。随着数以万计的传感器部署在家用电器、包装、服装、自动驾驶汽车和其他地方,未来的大数据将迅速增长。
数据变得如此庞大和复杂,以至于很难或几乎不可能使用传统方法对其进行处理。这正好是机器学习和深度学习发挥作用的地方,因为AI辅助数据处理使我们能够更好地发现历史模式,更有效地进行预测,提出更有效的建议等。
另外,请注意:数据可以大致可以分成两类:(1)结构化数据(2)非结构化数据。结构化数据以某种方式进行组织和格式化,因此可以在关系数据库中轻松搜索。相反,非结构化数据诸如视频或图像之类没有预定义的格式,使得收集、处理和分析数据变得更加困难。就形成一个经常用来描述大数据的框架是“三个V”,代表体量,速度和品种。
体量
数据量很重要。对于大数据,您将不得不处理大量的低密度,非结构化数据。这可能是价值未知的数据,例如Twitter数据供稿,网页或移动应用程序上的点击流或启用传感器的设备。对于某些单位,这个体量可能是数十兆字节的数据。对于其他人,则可能是数百PB。
速度
速度是接收和处理数据的速率。通常,与直接写入磁盘相比,数据流以更快快的速度直接进入内存。一些支持互联网的智能产品会实时或接近实时运行,并且需要实时评估和采取措施。
品种
品种的多样性是指可用的多种数据类型。传统的数据类型经过结构化,可以整齐地放置在关系数据库中。随着大数据的兴起,数据进入了新的非结构化数据类型。非结构化和半结构化的数据类型,例如文本,音频和视频,需要进行额外的预处理以导出含义并支持元数据。
2.处理能力
Pixabay
英特尔公司的共同创始人戈登·摩尔(Gordon Moore)是摩尔定律的作者,该定律指出,微芯片上的晶体管数量每两年翻一番。在过去的50多年中,这导致了处理器计算能力的提高。但是,出现了新技术的提高,这些技术正在加速计算,尤其是促进了针对AI相关应用的计算。
第一种技术是图形处理单元(GPU)。与中央处理器(CPU)相比,GPU可以拥有数百甚至数千个内核。GPU的优势是可以同时处理多个计算,主要用于图形密集型的计算机游戏。但是深度学习,尤其当深度学习来管理多个数据集以提高预测质量的时候,就用到了GPU的并行计算能力,Nvidia是GPU的市场领导者。
第二种技术是云计算。AI研究人员和从业人员不必依靠本地计算机的计算能力,但实际上可以将其模型的处理“外包”给云服务,例如AWS,Google Cloud,Microsoft Azure或IBM Watson。
当然,这些服务不是免费提供的,实际上可能会变得相当昂贵,这取决于需要训练的深度学习模型的复杂性。尽管如此,拥有预算的个人和公司现在可以选择获得过去无法获得的强大处理能力。这给人工智能带来了巨大的推动力。
最后,一套全新的专为AI应用程序而设计的专用处理器应运而生。一个例子是Google开发的Tensor处理单元(TPU)。这些处理器特别使用Google自己的TensorFlow软件,可大大加快神经网络的计算速度。有大量的硬件初创公司紧紧追寻着开发可加速AI专用芯片的巨大机遇。其中的几个例子是:Graphcore,Cerebras,Hailo,Nuvia或Groq。
3.互联地球
借助互联网和智能手机,人类比以往任何时候都拥有更多的联系。当然,这种超连通性也有一些缺点,但是总的来说,它对社会和个人都有巨大的好处。现在,每个人都可以通过社交媒体平台以及围绕各种主题的在线社区访问信息和知识。
互联地球正在支持AI的兴起。有关最新研究和应用的信息很容易传播,从而更加鼓励知识共享。此外,有一些与AI相关的社区正在开发开源工具并共享其工作,因此,更多的人可以从每个人的学习和发现中受益。
例如,Medium托管了许多针对AI读者的出版物,并且许多人分享了真知灼见。人们还可以在Twitter上找到由在该领域产生巨大影响的顶级AI研究人员和从业人员发布的重要资源。当然还有GitHub-庞大的软件开发人员社区,他们共享项目,代码等。
最后,每个人(甚至包括Google和Facebook这样的大型科技公司)都知道AI太复杂了,个人或单个公司都无法解决。这种洞察力鼓励共享和协作,通过相互联系的社区可以比以往更有效地完成共享和协作。
4.开源软件
资料来源:Pixabay上的2023583图片
让我们从一个定义开始:
“ 开源软件是具有源代码的软件,任何人都可以检查,修改和增强。”例如,Linux可能是最著名和使用最广泛的开源操作系统,并且对开源软件的接受和使用产生了巨大影响。
开源软件和数据极大地促进了AI的发展。特别是,开源的机器学习标准和库(例如Scikit-learn 或TensorFlow)支持执行复杂的任务,并允许将重点放在解决概念上的问题上,而不是技术上的实现。总的来说,开源方法意味着在常规编码上花费更少的时间,增加了行业标准化,并广泛应用了新兴的AI工具。
开源机器学习工具和框架分为以下5个不同类别:
1、非程序员的开源机器学习工具
2、机器学习模型部署
3、大数据开源工具
4、计算机视觉,NLP和音频
5、强化学习
5.改进算法
资料来源:Markus Spiske在Unsplash上的照片
人工智能研究人员在算法和技术方面取得了重大进步,这些算法和技术有助于更好的预测和全新的应用。
尤其是深度学习(DL),涉及神经网络的各个层层面,其设计灵感来自人脑处理信息的方法,在过去几年中取得了巨大突破。例如,深度学习支持了自然语言处理(NLP)和计算机视觉(CV)的发展,并在搜索引擎和自动驾驶汽车的许多实际案例中得到广泛使用。
另一个新兴的研究领域是强化学习(RL),其中AI代理通过奖励功能优化的反复试验来学习很少或没有初始输入数据的学习。Google的子公司DeepMind是领先的AI研究公司之一,到目前为止,RL用于计算机游戏中的应用证明了其强大的能力。著名的AlphaGo算法在2016年的一场比赛中击败了顶级人类围棋选手李世石。由于游戏的复杂性,很多人没想到这种事情会这么快发生。
还有许多其他AI研究实验室,例如OpenAI,Facebook AI和一些大学,一直在不断努力做出新的AI发现,随着时间的流逝,这些发现逐渐渗透到实际的行业应用中。
6.快速回报
来源:Frank Busch在Unsplash上的照片
人工智能,机器学习和深度学习不再只是理论和概念,而是实际上增强了公司的竞争优势并提高了生产力。竞争压力迫使公司在其产品和服务中使用AI系统。
例如,当今大多数消费者公司都利用AI进行个性化和推荐。考虑一下Netflix或Amazon。辉瑞等制药公司现在可以使用AI将药物开发过程从十年缩短到仅仅几年。
这些丰厚的回报鼓励公司在研发方面投入更多的资源,并开发新的应用程序,从而充分利用人工智能的潜力并使其变得更好,从而进入良性循环。
结论
我们确定了促成AI革命的六个因素:大数据,处理能力,互联地球,开源软件,改进的算法和加速的回报。
这些因素正在融合,并且将继续发生更多的发展和创新,继续加速AI的影响。