python 利用pandas进行数据分析

  • 目录:
  • 1.统计分析入门
  • 2.分组 groupby()
  • 3.数据可视化
  • 4.数据合并,重组
  • 5.数据类型转换

1.统计分析入门:经常用到的函数

删除值的处理

1.1 pd.isnull(df)

检查缺失值

1.2 df.fillna()

填充缺失值

1.2.1 直接填充

df3.fillna(0,inplace = True)

1.2.2 采用前项填充或后向填充

df3.fillna(method='ffill')  #用前一个值填充

df3.fillna(method='bfill')   #用后一个值填充

1.2.3使用常量填充

df3.fillna({'c':100},inplace = True)

1.2.4 使用均值或者中位数填充

c_median = df3['c'].median()  #可替换成.mean()
df3.fillna({'c':c_median},inplace= True)
df3

1.3 df.dropna()

删除缺失值

df.dropna()     #该操作会删除所有有缺失值的行数据
df.dropna(how='all')    #该操作仅会删除所有列均为缺失值的行数据

1.4 df.mean()

ps:操作会把NaN 排除在外

1.5 .value_counts()

value_counts()是一种查看表格某列中有多少个不同值的快捷方法,并计算每个不同值有在该列中有多少重复值。
value_counts()是Series拥有的方法,一般在DataFrame中使用时,需要指定对哪一列或行使用

data['Unit Name'].value_counts()

1.6 df.count()

非空元素计算

1.7 df.min()

最小值

1.8 df.max()

最大值

1.9 df.idxmin()

最小值的位置,类似于r中的which.min函数

1.10 df.idmax()

最大值的位置,类似于r中的which.max函数

1.11 df.quantile(0.1)

10%分位数

1.12 df.sum()

求和

1.13 df.median()

中位数

1.14 df.mode()

众数

1.15 df.var()

方差

1.16 df.std()

标准差

1.17 df.mad()

平均绝对偏差

1.18 df.skew()

偏度

1.19 df.kurt()

峰度

1.20 df.corr()

连续变量的相关系数

1.21 df.cov()

协方差矩阵

1.22 df.sort_values()

排序

bank.sort_values(by=['job','age'])

2.分组 groupby()

2.1 按列分组

2.1.1依据单个列名’key1’进行为分组

import pandas as pd
import numpy as np
df = pd.DataFrame({'key1':['a','a','b','b','a'],'key2':['one','two','one','two','one'],'data1':np.random.randn(5),'data2':np.random.randn(5)})  
df 
group1 = df.groupby('key1') 
[x for x in group1]
image.png

2.1.2 依据多列进行分组

group2 = df.groupby(['key1','key2'])  
[x for x in group2] 
image.png

其中,group1是一个中间分组变量,为GroupBy类型;
推导式[x for x in group1]用于显示分组内容

2.2 groupby与 统计算法运用 sum() count()

group1.sum() #按照key1的key,相加value的值

data1   data2
key1        
a   2.217383    -1.276316
b   -0.930265   0.205291

group2.count() #统计(key1,key2)出现的次数

data1   data2
key1    key2        
a   one 2   2
two 1   1
b   one 1   1
two 1   1

2.3 groupby与agg()连用

agg(func)可对分组后的某一列或者多个列的数据应用func函数,也可推广到同时作用于多个列和多个函数上。

eg1:

group1['data1'].agg('mean')   #对分组后的’data1’列求均值

key1
a    0.739128
b   -0.465133
Name: data1, dtype: float64

eg2:

group1['data1','data2'].agg(['mean','sum']) #对分组后的’data1’和’data2’列分别求均值、求和


data1   data2
mean    sum mean    sum
key1                
a   0.739128    2.217383    -0.425439   -1.276316
b   -0.465133   -0.930265   0.102646    0.205291

当一个dataframe groupby之后,是没有办法直接print出来的。
要用一个循环语句做出来

eg:

[x for x in df]

这个出来可以出来,但是视觉效果不是很好
另一种办法:

for key, item in df:
    print (df.get_group(key), "\n\n")

这个视觉效果更好

2.4 groupby 与apply()连用

apply()应用于dataframe的各个列

df.groupby('key1').apply(np.mean) 
df.groupby(['key1','key2']).apply(np.mean) 

问题:apply与agg 区别在于: apply是对dataframe应用,agg是对分组后的应用???

3.数据图

3.1 数据图的打开方式

image.png

3.2 直方图📊

image.png

4.数据合并

4.1merge()合并数据 通过键拼接列

pandas提供了一个类似于关系数据库的连接(join)操作的方法merage,可以根据一个或多个键将不同DataFrame中的行连接起来
语法如下:

merge(left, right, how='inner', on=None, left_on=None, right_on=None,
      left_index=False, right_index=False, sort=True,
      suffixes=('_x', '_y'), copy=True, indicator=False)

参数说明:
left与right:两个不同的DataFrame
how:指的是合并(连接)的方式有inner(内连接),left(左外连接),right(右外连接),outer(全外连接);默认为inner
on : 指的是用于连接的列索引名称。必须存在右右两个DataFrame对象中,如果没有指定且其他参数也未指定则以两个DataFrame的列名交集做为连接键
left_on:左则DataFrame中用作连接键的列名;这个参数中左右列名不相同,但代表的含义相同时非常有用。
right_on:右则DataFrame中用作 连接键的列名
left_index:使用左则DataFrame中的行索引做为连接键
right_index:使用右则DataFrame中的行索引做为连接键
sort:默认为True,将合并的数据进行排序。在大多数情况下设置为False可以提高性能
suffixes:字符串值组成的元组,用于指定当左右DataFrame存在相同列名时在列名后面附加的后缀名称,默认为('_x','_y')
copy:默认为True,总是将数据复制到数据结构中;大多数情况下设置为False可以提高性能
indicator:在 0.17.0中还增加了一个显示合并数据中来源情况;如只来自己于左边(left_only)、两者(both)

该函数的典型应用场景是:针对同一个主键存在两张包含不同字段的表,现在我们想把他们整合到一张表里。在此典型情况下,结果集的行数并没有增加,列数则为两个元数据的列数和减去连接键的数量。

1.on=None 用于显示指定列名(键名),如果该列在两个对象上的列名不同,则可以通过 left_on=None, right_on=None 来分别指定。或者想直接使用行索引作为连接键的话,就将 left_index=False, right_index=False 设为 True。
2.how='inner' 参数指的是当左右两个对象中存在不重合的键时,取结果的方式:inner 代表交集;outer 代表并集;left 和 right 分别为取一边。
3.suffixes=('_x','_y') 指的是当左右对象中存在除连接键外的同名列时,结果集中的区分方式,可以各加一个小尾巴。
对于多对多连接,结果采用的是行的笛卡尔积。

eg1:

df1=pd.DataFrame({'key':['a','b','b'],'data1':range(3)})
df2=pd.DataFrame({'key':['a','b','c'],'data2':range(3)})
pd.merge(df1,df2)   #没有指定连接键,默认用重叠列名,没有指定连接方式

    key data1   data2
0   a   0   0
1   b   1   1
2   b   2   1

eg2:

pd.merge(df2,df1,how='left')    #通过how,指定连接方式

    key data2   data1
0   a   0   0.0
1   b   1   1.0
2   b   1   2.0
3   c   2   NaN

eg3: 多键连接时

right=pd.DataFrame({'key1':['foo','foo','bar','bar'],
    ...:     'key2':['one','one','one','two'],
    ...:     'lval':[4,5,6,7]})
left=pd.DataFrame({'key1':['foo','foo','bar'],
    ...:     'key2':['one','two','one'],
    ...:     'lval':[1,2,3]})
right=pd.DataFrame({'key1':['foo','foo','bar','bar'],
    ...:     'key2':['one','one','one','two'],
    ...:     'lval':[4,5,6,7]})

pd.merge(left,right,on=['key1','key2'],how='outer')  #传出数组

    key1    key2    lval_x  lval_y
0   foo one 1.0 4.0
1   foo one 1.0 5.0
2   foo two 2.0 NaN
3   bar one 3.0 6.0
4   bar two NaN 7.0

4.2 通过concat()可以沿着一条轴将多个对象堆叠到一起

concat方法相当于数据库中的全连接(UNION ALL),可以指定按某个轴进行连接,也可以指定连接的方式join(outer,inner 只有这两种)。与数据库不同的时concat不会去重,要达到去重的效果可以使用drop_duplicates方法

 concat(objs, axis=0, join='outer', join_axes=None, ignore_index=False,
           keys=None, levels=None, names=None, verify_integrity=False, copy=True)

重点:
在默认的 axis=0 情况下,pd.concat([obj1,obj2]) 函数的效果与 obj1.append(obj2) 是相同的;
而在 axis=1 的情况下,pd.concat([df1,df2],axis=1) 的效果与 pd.merge(df1,df2,left_index=True,right_index=True,how='outer') 是相同的。

concat 一些特点:

1.作用于Series时,如果在axis=0时,类似union。axis=1 时,组成一个DataFrame,索引是union后的,列是类似join后的结果。
2.通过参数join_axes=[] 指定自定义索引。
3.通过参数keys=[] 创建层次化索引
4.通过参数ignore_index=True 重建索引。

df1=pd.DataFrame(np.random.randn(3,4),columns=['a','b','c','d'])
df2=pd.DataFrame(np.random.randn(2,3),columns=['b','d','a'])
pd.concat([df1,df2],ignore_index=True)


a   b   c   d
0   -0.090280   -0.632174   -1.771575   0.537401
1   0.238462    0.835425    0.250523    -2.118311
2   -0.724603   0.633178    1.014699    1.659224
3   -0.911855   -0.457355   NaN -0.595535
4   0.856938    -0.018557   NaN -0.060267

5.数据类型转换

Pandas支持的数据类型最为丰富,在某种情形下Numpy的数据类型可以和Pandas的数据类型相互转化,毕竟Pandas库是在Numpy的基础之上开发的的。

5.1 用.astype()进行转换

df[[column]] = df[[column]].astype(type)

type:int;float

5.2 用自定义函数进行转换

5.2.1 用def()函数转换

5.2.2 用lambda()进行转换

chipo.item_price.dtype
dollarizer = lambda x: float(x[1:-1])
chipo.item_price = chipo.item_price.apply(dollarizer)
chipo.item_price.dtype

pandas练习中的第二个例子,要求用lambda进行转换成float

6.pd.Series.nunique()

在分析数据时,很多时候用户想要查看特定列中的唯一值。Pandas nunique() 用于获取唯一值的统计次数。


image.png
import pandas as pd
df=pd.DataFrame({'A':[0,1,2],'B':[4,5,6]})
df.nunique()
image.png
df=pd.DataFrame({'A':[0,1,1],'B':[0,5,6]})
df.nunique()
image.png

nuinque()是查看该序列(axis=0/1对应着列或行)的不同值的数量。用这个函数可以查看数据有多少个不同值。

7.数据筛选

7.1 用符号筛选

以>,<,==,>=,<=来进行选择(“等于”一定是用‘==’,如果用‘=’就不是判断大小了)
使用 &(且) 和 |(或) 时每个条件都要用小括号括起来。

7.2 isin()

如果要选择某列等于多个数值或者字符串时,要用到.isin(), 我们把df修改了一下(isin()括号里面应该是个list)

7.3 .str.contains()

详细链接

reference:
https://www.jianshu.com/p/f773b4b82c66
https://blog.csdn.net/u013402321/article/details/79000996
https://blog.csdn.net/zutsoft/article/details/51498026
https://blog.csdn.net/A632189007/article/details/76176985
https://blog.csdn.net/y12345678904/article/details/72457486
https://zhuanlan.zhihu.com/p/35287822
https://blog.csdn.net/zgljl2012/article/details/54880353
https://cloud.tencent.com/developer/news/396867
https://blog.csdn.net/qq_24509229/article/details/80349898

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,293评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,604评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,958评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,729评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,719评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,630评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,000评论 3 397
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,665评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,909评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,646评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,726评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,400评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,986评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,959评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,197评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,996评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,481评论 2 342

推荐阅读更多精彩内容