pandas读取超大文件

pandas读取大于内存的文件

方法1, 设置chunksize, 分块读取

chunksize = 10 ** 6
for chunk in pd.read_csv(filename, chunksize=chunksize):
    process(chunk)

方法2, 使用iterator, 但是也需要设置chunksize

chunkSize = 10 ** 6
reader = pd.read_csv(filename, iterator=True)
while True:
    try:
        chunk = reader.get_chunk(chunkSize)
        process(chunk)
    except StopIteration:
        break

相比较而言, 第一种方法更简介一些, 推荐使用

参考连接

  1. https://stackoverflow.com/a/25962187
  2. https://blog.csdn.net/u012347642/article/details/78555132
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。