统计脚本 一.十亿级找出N天前数据

前言

  写统计脚本系列,是把工作中的一些需求记录下来,并且写下优化手段。算是一种技术总结。
  1. 需求描述
      从一个支持亚马逊s3协议的资源池中,下载该池特定的业务的元信息。然后找出所有30天符合业务逻辑的条目,用于执行删除。
      下载代码略过。大概操作如下:池中文件前缀为 abc/hash-code 其中abc为业务线,对应了资源池生命周期(为什么不用桶生命周期管理,の,池的管理并发慢于文件的增加速度,需要手动管理。(。•́︿•̀。))。
  2. 文件列表下载难点在于:
  • 数据库中无法获取历史列表,数据库严格按照周期删除。
  • 只能通过资源池访问日志或者是资源池元数据中获取文件列表。然而池的元数据aws sdk中只有单线程,死循环下载的方法(每次获取一千条,需要下载12亿条,测试下载3亿条该方法需要40几小时)。利用历史访问日志获取所有文件id,历史文件下载,保存需要4T空间,浪费大量资源,并且大量文件id已经被删除过了,放弃日志方案。
  1. 文件下载优化手段(改良aws s3 getbucklist方法):
  • 第一层拆分,每一个桶对应不同的线程。
  • 第二层拆分,通过s3 sdk中setPrefix 方法,业务拆分不同生命周期,不同hash-code范围的方式,进一步提高桶内并发。拆分例子如下
      abc10/00000019-493b-473a-b90c-d4423c3fe3bd
      abc 为业务线,后面的数字为保存日期,hash域拆分为00... 01...。这样拆分后并发达到了桶 * 业务线 * 保存日期 * 256。
  • 12亿条,200G数据,100个线程的线程池,3小时即可拉取所有数据。
  1. 找出30天前的数据(利用字符串代替时间转换,将查找时间从1900秒优化到400秒,从cpu瓶颈到io瓶颈,python为例)。
      基准环境如下:
      查找数据量12亿条,200G。输出结果,3.8亿条,50g。测试机器单盘2t sas,54核,256g ram,进程池大小为48,内存使用大概为10G。
      未优化前做法:源数据为多个文件(大小大致相等),实现无锁,多进程(python需要多进程)消费,字符串中时间转为内部数据结构后对比。观察单进程cpu使用达到100%,io wait 忽略不计,遂优化cpu使用。代码如下(ps必须先把文件夹建立好,直接执行,会出现冲突。多个进程同时创建文件,会导致一个进程失败。):
# -*- coding: utf-8 -*-
import datetime as dt
import os
from concurrent.futures import ThreadPoolExecutor
from  multiprocessing import Pool
import time


input_size = 256*1024*1024
def get_path():
    path_list = []
    with open("path_list", "r") as f:
        temp = f.readlines()
        for each in temp:
            size, path = each.split("\t")
            if size !="0":
                path_list.append(path.strip("\n"))
    return path_list

def makedir(file):
    for each in file
        try:
            start_time = dt.datetime(year=2019,month=8,day=11,hour=0,minute=0,second=0)
            output_path = file.replace("family","family/temp")
            dir_path = "/".join(output_path.split("/")[:-1])
            if os.path.exists(dir_path) == False:
                os.makedirs(dir_path)
        except Exception as e:
            print str(e)

def process(file):
      try:
        with open(file, "r") as f, open(output_path+"output", "w") as output:
            pass
            judge = f.readlines(input_size)
            output_buff = []
            day_ago = 10
            if "H10" in file:
                day_ago = 10
            elif "H20" in file:
                day_ago = 20
            elif "H30" in file:
                day_ago = 30
            elif "H40" in file:
                day_ago = 40
            elif "H50" in file:
                day_ago = 50
            elif "H60" in file:
                day_ago = 60
            while judge != None and judge != []:
                for each in judge:
                    key, etag, bucket, modify_date, size  = each.split("\t")
                    if dt.datetime.strptime(modify_date, "%a %b %d %H:%M:%S CST %Y")<start_time-dt.timedelta(days=day_ago):
                        output_buff.append(each)
                output.writelines(output_buff)
                output_buff = []
                judge = f.readlines(input_size)

    except Exception as e:
        print str(e)


def bulk_execute(method, method_par):
    start = time.time()
    pool = Pool(48)
    pool.map(method, method_par)
    pool.close()
    pool.join() 
    print time.time()-start
   
    
    


def run():
    # process()
    path_list = get_path()
    makedir(path_list)
    bulk_execute(process, path_list)

if __name__ == "__main__":
    run()

  优化:生成一个保留日期字典,直接对比字符串。观察单核进程cpu使用下降一半,部分进程出现io wait ,磁盘io接近上限((ÒωÓױ),突然有种冲动,想将磁盘退回,拆分为多盘,提高io。•̥́ ˍ •̀)。代码如下:

# -*- coding: utf-8 -*-
import datetime as dt
import os
from concurrent.futures import ThreadPoolExecutor
from  multiprocessing import Pool
import time


input_size = 256*1024*1024
def get_path():
    path_list = []
    with open("path_list", "r") as f:
        temp = f.readlines()
        for each in temp:
            size, path = each.split("\t")
            if size !="0":
                path_list.append(path.strip("\n"))
    return path_list

def makedir(file):
    for each in file
        try:
            start_time = dt.datetime(year=2019,month=8,day=11,hour=0,minute=0,second=0)
            output_path = file.replace("family","family/temp")
            dir_path = "/".join(output_path.split("/")[:-1])
            if os.path.exists(dir_path) == False:
                os.makedirs(dir_path)
        except Exception as e:
            print str(e)
    
def process(file):
    try:
        with open(file, "r") as f, open(output_path+"output", "w") as output:
            pass
            judge = f.readlines(input_size)
            output_buff = []
            day_ago = 10
            if "H10" in file:
                day_ago = 10
            elif "H20" in file:
                day_ago = 20
            elif "H30" in file:
                day_ago = 30
            elif "H40" in file:
                day_ago = 40
            elif "H50" in file:
                day_ago = 50
            elif "H60" in file:
                day_ago = 60
            
            # 将时间对比变为字符串对比
            ban_dict = set([(dt.datetime(2019,9,14)-dt.timedelta(each)).strftime("%a %b %d %H:%M:%S CST %Y")[:10] for each in range(day_ago+1+34) ])
            while judge != None and judge != []:
                for each in judge:
                    key, etag, bucket, modify_date, size  = each.split("\t")
                    if modify_date[:10] not in ban_dict:
                        output_buff.append(each)
                output.writelines(output_buff)
                output_buff = []
                judge = f.readlines(input_size)

    except Exception as e:
        print str(e)



def bulk_execute(method, method_par):
    start = time.time()
    pool = Pool(48)
    pool.map(method, method_par)
    pool.close()
    pool.join() 
    print time.time()-start
   
    
    


def run():
    # process()
    path_list = get_path()
    makedir(path_list)
    bulk_execute(process, path_list)

if __name__ == "__main__":
    run()


最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,826评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,968评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,234评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,562评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,611评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,482评论 1 302
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,271评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,166评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,608评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,814评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,926评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,644评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,249评论 3 329
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,866评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,991评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,063评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,871评论 2 354

推荐阅读更多精彩内容