最近想用python批量处理数据,把自己网上找答案的过程整理了一下,希望对大家有用。
问题:
一个文件夹中有38个txt文件,这38个txt的命名各不相同,要把这38个txt文件中的数据整合到一个txt中。
思路:
获取所有txt文件的名称、路径,然后用for循环遍历每个txt文件,进行处理。最后将处理后的数据合并。
先看下总体代码,后面有具体解释。
import pandas as pd
import numpy as np
import os
os.getcwd()
os.chdir('/Users/Heihei/Desktop/EX2data/data')
path = '/Users/Heihei/Desktop/EX2data/data'
os.listdir(path)
datalist = []
for i in os.listdir(path):
if os.path.splitext(i)[1] == '.txt':
datalist.append(i)
df = pd.DataFrame()
for txt in datalist:
data_path = os.path.join(path,txt)
df_txt = pd.read_table(data_path,index_col = False)
df_txt['sub_n'] = txt[:2]
df_txt_sx = df_txt[df_txt['split'].isin([1,2])]
df = pd.concat([df,df_txt_sx],axis=0, ignore_index=True)
df.head(5)
df.tail(5)
df.shape
df.isnull().sum()
df.duplicated().sum()
df.to_csv('/Users/Heihei/Desktop/EX2data/data/Total_data',index=False)
代码解释
1. 获取路径
#载入需要的模块
import pandas as pd
import numpy as np
import os
os.getcwd() #获取当前工作路径,查看是否是自己的目标路径
os.chdir('/Users/Heihei/Desktop/EX2data/data') #如果不是,改到目标路径
path = '/Users/Heihei/Desktop/EX2data/data'
os.listdir(path) #查看目标路径下有哪些数据
结果显示(中间有很多了txt我把它省略了):
['.DS_Store',
'01lwj.txt',
......
'38lym.txt']
由上面可以看到,出现了一个“ .DS_Store”文件。如果我们直接用os.listdir(path)进行循环,会报错。
“ .DS_Store” 文件是Mac OS系统的Finder 用来存储这个文件夹的显示属性的:比如文件图标的摆放位置。具体可以看这篇文章:http://mini.eastday.com/mobile/180317092251931.html#。 因此。我们需要重新建立一个不包含该文件的list,新的list只含有txt数据。
datalist = []
for i in os.listdir(path):
if os.path.splitext(i)[1] == '.txt': #选取后缀为txt的文件加入datalist
datalist.append(i)
datalist #查看datalist
os.path.splitext
把文件分为文件名和扩展名。比如os.path.splitext(a.txt)的结果为a 以及 .txt 。因此,os.path.splitext(i)[1]的意思就是取出文件的后缀名。
除了该函数外,还有一个os.path.split 的函数,该函数用来把路径分为文件名与文件目录,比如“/user/heihei/data.txt” ,经过作用后可以被分为“/user/heihei”和 “data.txt”
另外,注意python中的顺序。list[x:y] 是从第“x+1”个数(因为python的第一个数是0)开始,直到y结束(不包含y)。如list = [0,1,2] , list[1:2]的结果是[1]。
2. 循环合并数据
df = pd.DataFrame()
for txt in datalist:
data_path = os.path.join(path,txt) #列出path路径下目标文件的绝对路径,将其赋值给data_path
df_txt = pd.read_table(data_path,index_col = False) #读取目标txt文件,不把原Data第一列作为索引
df_txt['sub_n'] = txt[:2] #取出前面的数值,并赋值给sub_n这一列(合并后我需要知道哪些数据来自哪个文件)
df_txt_sx = df_txt[df_txt['split'].isin([1,2])] #用isin方法进行数据筛选(我的数据中split一列有3个值,我只需要改列值为1,2的行,其他行不需要)
df = pd.concat([df,df_txt_sx],axis=0, ignore_index=True) #(将筛选后的数据加到df框中。axis=0表示上下合并,axis=1表示左右合并,ignore_index=True表示忽略原来索引。除了concat函数外,也可以用df.append实现,但是还要改索引,比concat方法会麻烦点)
3. 检查合并完的数据
df.head(5) #检查最开始5行数据
df.tail(5) #检查最后5行数据
df.shape #查看数据框行列是否和预期一样
df.isnull().sum() #查看是否有缺失值
df.duplicated().sum() 查看是否有重复值
4. 保存数据
df.to_csv('/Users/Heihei/Desktop/EX2data/data/Total_data',index=False)
# index=False 表示不保存索引数据
#之后如果要读取的话,直接df.read_csv('Total_data', index_col=False)就能得到 df框。
公众号: 尔冬禾(PsyHeheihei),文章更新速度比这里稍微快一点,主要跟数据分析相关内容和一些个人思考。欢迎交流
参考资料:
1.Python读取/批量读取文件
2.python中split()、os.path.split()函数用法
3.【python】如何批量读取文件夹的所有文件数据,os模块与open函数结合使用实例
4.python中pandas.DataFrame排除特定行方法示例