加速数据分析,这12种高效Numpy和Pandas函数为你保驾护航

我们都知道,Numpy 是 Python 环境下的扩展程序库,支持大量的维度数组和矩阵运算;Pandas 也是 Python 环境下的数据操作和分析软件包,以及强大的数据分析库。二者在日常的数据分析中都发挥着重要作用,如果没有 Numpy 和 Pandas 的支持,数据分析将变得异常困难。但有时我们需要加快数据分析的速度,有什么办法可以帮助到我们吗?

在本文中,数据和分析工程师 Kunal Dhariwal 为我们介绍了 12 种 Numpy 和 Pandas 函数,这些高效的函数会令数据分析更为容易、便捷。最后,读者也可以在 GitHub 项目中找到本文所用代码的 Jupyter Notebook。

   Numpy 的 6 种高效函数

首先从 Numpy 开始。Numpy 是用于科学计算的 Python 语言扩展包,通常包含强大的 N 维数组对象、复杂函数、用于整合 C/C++和 Fortran 代码的工具以及有用的线性代数、傅里叶变换和随机数生成能力。

除了上面这些明显的用途,Numpy 还可以用作通用数据的高效多维容器(container),定义任何数据类型。这使得 Numpy 能够实现自身与各种数据库的无缝、快速集成。

接下来一一解析 6 种 Numpy 函数。

argpartition()

借助于 argpartition(),Numpy 可以找出 N 个最大数值的索引,也会将找到的这些索引输出。然后我们根据需要对数值进行排序。

x = np.array([12,10,12,0,6,8,9,1,16,4,6,0])index_val = np.argpartition(x,-4)[-4:]

index_val

array([1,8,2,0], dtype=int64)np.sort(x[index_val])

array([10,12,12,16])

allclose()

allclose() 用于匹配两个数组,并得到布尔值表示的输出。如果在一个公差范围内(within a tolerance)两个数组不等同,则 allclose() 返回 False。该函数对于检查两个数组是否相似非常有用。

array1 = np.array([0.12,0.17,0.24,0.29])

array2 = np.array([0.13,0.19,0.26,0.31])# with a tolerance of 0.1, it should return False:

np.allclose(array1,array2,0.1)

False# with a tolerance of 0.2, it should return True:

np.allclose(array1,array2,0.2)

True

clip()

Clip() 使得一个数组中的数值保持在一个区间内。有时,我们需要保证数值在上下限范围内。为此,我们可以借助 Numpy 的 clip() 函数实现该目的。给定一个区间,则区间外的数值被剪切至区间上下限(interval edge)。

x = np.array([3,17,14,23,2,2,6,8,1,2,16,0])np.clip(x,2,5)

array([3,5,5,5,2,2,5,5,2,2,5,2])

extract()

顾名思义,extract() 是在特定条件下从一个数组中提取特定元素。借助于 extract(),我们还可以使用 and 和 or 等条件。

# Random integers

array= np.random.randint(20, size=12)

array

array([0,1,8,19,16,18,10,11,2,13,14,3])#  Divide by2andcheckifremainderis1

cond = np.mod(array,2)==1

cond

array([False,True,False,True,False,False,False,True,False,True,False,True])# Use extracttogetthe values

np.extract(cond,array)

array([1,19,11,13,3])# Apply conditiononextract directly

np.extract(((array<3) | (array>15)),array)

array([0,1,19,16,18,2])

where()

Where() 用于从一个数组中返回满足特定条件的元素。比如,它会返回满足特定条件的数值的索引位置。Where() 与 SQL 中使用的 where condition 类似,如以下示例所示:

y = np.array([1,5,6,8,1,7,3,6,9])# Where y is greater than 5, returns index position

np.where(y>5)

array([2,3,5,7,8], dtype=int64),)# First will replace the values that match the condition, 

# second will replace the values that does not

np.where(y>5,"Hit","Miss")

array(['Miss','Miss','Hit','Hit','Miss','Hit','Miss','Hit','Hit'],dtype='<U4')

percentile()

Percentile() 用于计算特定轴方向上数组元素的第 n 个百分位数。

a = np.array([1,5,6,8,1,7,3,6,9])print("50th Percentile of a, axis = 0 : ",

np.percentile(a,50, axis =0))

50th Percentile of a, axis =0:6.0b = np.array([[10, 7, 4], [3, 2, 1]])print("30th Percentile of b, axis = 0 : ",

np.percentile(b,30, axis =0))

30th Percentile of b, axis =0:  [5.13.51.9]

这就是 Numpy 扩展包的 6 种高效函数,相信会为你带来帮助。接下来看一看 Pandas 数据分析库的 6 种函数。

   Pandas数据统计包的6种高效函数

Pandas 也是一个 Python 包,它提供了快速、灵活以及具有显著表达能力的数据结构,旨在使处理结构化 (表格化、多维、异构) 和时间序列数据变得既简单又直观。

Pandas 适用于以下各类数据:

具有异构类型列的表格数据,如 SQL 表或 Excel 表;

有序和无序 (不一定是固定频率) 的时间序列数据;

带有行/列标签的任意矩阵数据(同构类型或者是异构类型);

其他任意形式的统计数据集。事实上,数据根本不需要标记就可以放入 Pandas 结构中。

Pandas 擅长处理的类型如下所示:

容易处理浮点数据和非浮点数据中的 缺失数据(用 NaN 表示);

大小可调整性: 可以从 DataFrame 或者更高维度的对象中插入或者是删除列;

显式数据可自动对齐: 对象可以显式地对齐至一组标签内,或者用户可以简单地选择忽略标签,使 Series、 DataFrame 等自动对齐数据;

灵活的分组功能,对数据集执行拆分-应用-合并等操作,对数据进行聚合和转换;

简化将数据转换为 DataFrame 对象的过程,而这些数据基本是 Python 和 NumPy 数据结构中不规则、不同索引的数据;

基于标签的智能切片、索引以及面向大型数据集的子设定;

更加直观地合并以及连接数据集;

更加灵活地重塑、转置(pivot)数据集;

轴的分级标记 (可能包含多个标记);

具有鲁棒性的 IO 工具,用于从平面文件 (CSV 和 delimited)、 Excel 文件、数据库中加在数据,以及从 HDF5 格式中保存 / 加载数据;

时间序列的特定功能: 数据范围的生成以及频率转换、移动窗口统计、数据移动和滞后等。

read_csv(nrows=n)

大多数人都会犯的一个错误是,在不需要.csv 文件的情况下仍会完整地读取它。如果一个未知的.csv 文件有 10GB,那么读取整个.csv 文件将会非常不明智,不仅要占用大量内存,还会花很多时间。我们需要做的只是从.csv 文件中导入几行,之后根据需要继续导入。

import io

import requests# I am using this online data set just to make things easier for you guys

url ="https://raw.github.com/vincentarelbundock/Rdatasets/master/csv/datasets/AirPassengers.csv"

s = requests.get(url).content# read only first 10 rows

df = pd.read_csv(io.StringIO(s.decode('utf-8')),nrows=10 , index_col=0)

map()

map( ) 函数根据相应的输入来映射 Series 的值。用于将一个 Series 中的每个值替换为另一个值,该值可能来自一个函数、也可能来自于一个 dict 或 Series。

# create a dataframe

dframe= pd.DataFrame(np.random.randn(4,3), columns=list('bde'), index=['India','USA','China','Russia'])#compute a formatted string from each floating point value in frame

changefn = lambda x:'%.2f'% x# Make changes element-wise

dframe['d'].map(changefn)

apply()

apply() 允许用户传递函数,并将其应用于 Pandas 序列中的每个值。

# max minus mix lambda fn

fn = lambda x: x.max() - x.min()# Apply this on dframe that we've just created above

dframe.apply(fn)

isin()

lsin () 用于过滤数据帧。Isin () 有助于选择特定列中具有特定(或多个)值的行。

# Using the dataframe we created for read_csv

filter1= df["value"].isin([112])

filter2= df["time"].isin([1949.000000])df [filter1 & filter2]

copy()

Copy () 函数用于复制 Pandas 对象。当一个数据帧分配给另一个数据帧时,如果对其中一个数据帧进行更改,另一个数据帧的值也将发生更改。为了防止这类问题,可以使用 copy () 函数。

# creating sample series 

data = pd.Series(['India','Pakistan','China','Mongolia'])# Assigning issue that we face

data1= data

# Change a value

data1[0]='USA'

# Also changes value in old dataframe

data# To prevent that, we use

# creating copy of series 

new= data.copy()# assigning new values 

new[1]='Changed value'# printing data 

print(new)

print(data)

select_dtypes()

select_dtypes() 的作用是,基于 dtypes 的列返回数据帧列的一个子集。这个函数的参数可设置为包含所有拥有特定数据类型的列,亦或者设置为排除具有特定数据类型的列。

# We'll use the same dataframe that we used for read_csv

framex =  df.select_dtypes(include="float64")# Returns only time column

最后,pivot_table( ) 也是 Pandas 中一个非常有用的函数。如果对 pivot_table( ) 在 excel 中的使用有所了解,那么就非常容易上手了。

# Create a sample dataframe

school = pd.DataFrame({'A': ['Jay','Usher','Nicky','Romero','Will'],

'B': ['Masters','Graduate','Graduate','Masters','Graduate'],

'C': [26,22,20,23,24]})# Lets create a pivot table to segregate students based on age and course

table = pd.pivot_table(school,values='A',index=['B','C'],

columns =['B'], aggfunc = np.sum, fill_value="Not Available")

table

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,524评论 5 460
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,869评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,813评论 0 320
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,210评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,085评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,117评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,533评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,219评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,487评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,582评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,362评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,218评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,589评论 3 299
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,899评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,176评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,503评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,707评论 2 335