摘要: 本文介绍了一些常见的用于数据分析任务的Python库,如Numpy、Pandas、Matplotlib、Scikit-learn以及BeautifulSoup等,这些工具库功能强大,便于上手。有了这些帮助,数据分析会变得分外简单
本篇文章的主要目的在于向大家展示使用Python学习数据科学有多么的容易。你可能以为自己要先成为一名高级Python程序员,然后才能进行通常与数据科学相关的复杂任务,然而事实并非如此。Python附带了很多有用的工具库,它们可以在后台为你提供强大的支持。你甚至不需要知道程序在运行什么,你不必关心这些。唯一你真正需要知道的是,你需要执行一些特定的任务,而Python使这些任务变得相当简单。
基础知识学习
在你深入了解Python的数据科学库之前,你首先需要学习一些Python的基础知识。Python是一门面向对象的编程语言。在Python中,对象既可以赋值给一个变量,也可以作为参数传递给一个函数。以下都是Python中的对象:数字、字符串、列表、元组、集合、字典、函数以及类。
Python中的函数与普通数学中的函数基本上是一致的——它接收输入数据,对数据进行处理并输出结果。输出的结果完全取决于函数是如何被设计的。另一方面,Python中的类是被设计为输出其他对象的对象的原型。
如果你的目标是编写快速、可复用、易于修改的Python代码,那么你必须使用函数和类。使用函数和类有助于保证代码的高效与整洁。
现在,让我们看看Python中有哪些可用的数据科学工具库。
科学计算:Numpy与Scipy
Numpy是一个主要用于处理n维数组对象的Python工具包,而Scipy则提供了许多数学算法与复杂函数的实现,可用来扩展Numpy库的功能。Scipy库为Python添加了一些专门的科学函数,以应对数据科学中的一些特定任务。
np.array(scores)将一个列表转换成一个数组。
当你使用普通的Python程序时——未使用任何外部扩展(例如工具库)的Python程序——你只能受限地使用一维列表来存储数据。但是,如果你使用Numpy库来扩展Python,你可以直接使用n维数组。(如果你想知道的话,n维数组是包含一个或多个维度的数组。)
最开始就学习Numpy,是因为在使用Python进行科学计算时Numpy必不可少。对Numpy的深入了解将有助于你高效地使用Pandas和Scipy这样的工具库。
数据再加工:Pandas
Pandas是数据再加工过程中使用的最为广泛的工具。它包含为使数据分析更加快速便捷而设计的高级数据结构与数据操作工具。对于使用R语言进行统计计算的用户,一定不会对DataFrame的变量名感到陌生。
Pandas是Python成长为一个强大而高效的数据分析平台的关键因素之一。
接下来,我将向你展示如何使用Pandas处理一个小型数据集。
可视化:Matplotlib + Seaborn + Bokeh
Matlplotlib是Python中一个用于数据可视化的模块。Matplotlib可使你轻松地绘制线形图、饼状图、直方图以及其他专业图表。
你可以使用Matplotlib自定义图表中的每个细节。当你在IPython中使用Matplotlib时,Matplotlib具备缩放、平移等交互特性。Matplotlib在所有操作系统上均支持不同的GUI后端,同时,它也可以将图表导出为若干种常见的图像格式,如PDF、SVG、JPG、PNG、BMP、GIF等。
机器学习: Scikit-learn
机器学习的目标在于通过向机器(软件)提供一些示例(如何执行任务或者执行什么无法完成任务)来教会机器执行任务。
Python中有很多机器学习的工具库,然而,Scikit-learn是最受欢迎的一个。Scikit-learn建立在Numpy、Scipy与Matplotlib库之上。基于Scikit-learn库,你几乎可以实现所有的机器学习算法,如回归、聚类、分类等等。因此,如果你打算使用Python学习机器学习,那么我建议你从学习Scikit-learn开始。
K近邻算法可用于分类或回归。下面这段代码展示了如何使用KNN模型对鸢尾花数据集进行预测。
其他的一些机器学习库还有:
Theano
Pylearn2
Pyevolve
Caffe
Tensorflow
其中,Tensorflow在这几年来最受欢迎,使用人数时其他库的总和。
统计学:Statsmodels与Scipy.stats
Statsmodels和Scipy.stats是Python中两个热门的统计学习模块。Scipy.stats主要用于概率分布的实现。另一方面,Statsmodels则为统计学模型提供了类似于R的公式框架。包括描述统计学、统计检验、绘图函数以及结果统计在内的扩展功能均适用于不同类型的数据以及每一种估计器。
下面的代码展示了如何使用Scipy.stats模块调用正态分布。
正态分布是一种连续的输入为实线上任何值的分布或函数。正态分布可通过以下两个参数进行参数化:分布的均值μ以及方差σ2。
Web抓取:Requests、Scrapy与BeautifulSoup
Web抓取表示从网络中获取非结构化数据(通常为HTML格式),并将其转换为便于分析的结构化格式数据的过程。
深受欢迎的用于Web抓取的工具库有:
Scrapy
URl lib
Beautifulsoup
Requests
要从网站中爬取数据,你需要了解一些HTML的基本知识。
这里有一个使用BeautifulSoup库进行网络爬取的示例:
import urllib2
import bs4
代码beautiful = urllib2.urlopen(url).read();前往bigdataexaminer.com并获取了网站对应的整个HTML文本。随后,我将文本存储在变量beautiful中。
我使用了urllib2来获取url为http://www.bigdataexaminer.com/ 的网站页面,你也可以使用Requests做同样的事情。这里有篇文章可以帮助你了解urllib2和Requests间的差别。
Scrapy与BeautifulSoup类似。后端工程师Prasanna Venkadesh在Quora上解释了这两个工具库的差别:
"Scrapy是一个Web爬虫,或者说,是一个Web爬虫框架,你为Scrapy提供一个开始抓取操作的根URL,然后你可以指定一些约束,例如要抓取多少个URL等等,这是一个用于Web抓取或爬取的完整框架。
而BeautifulSoup则是一个解析库,它也可以出色地页面爬取任务,并允许你轻松地解析页面中的某些内容。但是,BeautifulSoup只会抓取你提供URL的页面的内容。它不会抓取其他页面,除非你以一定方式手动地将页面URL添加到循环中来。
简单来说,你可以用BeautifulSoup构建出与Scrapy类似的东西。但是BeautifulSoup是一个Python库,而Scrapy则是一个完整的框架。"
结论
现在,你知道了Python的一些基础知识以及这些工具库的用途。是时候使用你所学到的知识来解决具体的数据分析问题了。你可以先处理结构化的数据集,之后可以解决那些复杂的非结构化数据分析问题了。
文章原标题《Python for Data Science Made Simple: A Step-by-Step Guide》,作者:Manu Jeevan
源于:https://www.jianshu.com/p/5dce49394d8b?utm_source=desktop&utm_medium=timeline