使用协程抓取空气质量指数

介绍

这次爬取的是实时空气污染指数(AQI)。关于这个项目的介绍可以参考联系世界的空气质量指数项目团队,对我而言,它是一个能够比较准确的提供空气污染指数。这个网站也提供了API用来获得数据,但是请求数量有限制,不得超过16PRS。后面发现中国的监测点有2534个,因此16PRS是远远不够的,所以我选择将监测点的目录抓下来,然后自己访问每个监测点页面并抓取数据。

监测点目录获取

监测点目录在URL: http://aqicn.org/city/all/cn/上,通过正则抓取,不赘述了。

import re
from bs4 import BeautifulSoup

import ohSqlite3 as sqlite
import ohRequests as requests

def db_init():
    req = requests.ohRequests()
    content = req.get("http://aqicn.org/city/all/cn/")
    
    pattern = re.compile("中国</div><br>(.*?)五家渠农水大厦</a>", re.S)
    data = pattern.findall(content)[0] + "五家渠农水大厦</a>"

    soup = BeautifulSoup(data, 'lxml')

    links = soup.find_all('a')

    with sqlite.ohSqlite3(DB_NAME) as db:
        db.execute("CREATE TABLE aqicn (location text, url text)")
        for link in links:
            db.execute("INSERT INTO aqicn VALUES (?,?)", (link.text, link.get('href'),))
        db.execute("DELETE FROM aqicn WHERE location = ' '")   

if __name__ == "__main__":
    db_init()

单线程抓取

上一节提到的监测点总共有2534个,对应了2534条URL,如果通过遍历的方式抓个抓取,抓取函数如下:

import re
import time
from bs4 import BeautifulSoup

import ohSqlite3 as sqlite
import ohRequests as requests

def parser_single(location, url):
    req = requests.ohRequests()
    content = req.get(url)
 
    pattern = re.compile('<table class=\'api\'(.*?)</table>', re.S)
    data = pattern.findall(content)

    if data:
        data = "<table class='api' {} </table>".format(data[0])
    soup = BeautifulSoup(data, 'lxml')

    aqi = soup.find(id='aqiwgtvalue').text

    if aqi == '-':
        return None

    t = soup.find(id='aqiwgtutime').get('val')

    t = time.strftime("%Y-%m-%d %H:%M:%S", time.localtime(int(t)))

    return [location, aqi, t]

最后程序跑了1463s,将近24min。

使用协程

理论上使用多进程也是可以的,这里我使用了协程,代码如下:

import re
import time
import aiohttp
import asyncio
from bs4 import BeautifulSoup

import ohSqlite3 as sqlite
import ohRequests as requests

async def parser():
    req = requests.ohRequests()
    while URLS_LIST:
        url = URLS_LIST.pop(0)
        header = {'user-agent': req.faker_user_agent()}

        async with aiohttp.ClientSession() as session:
            async with session.get(url[1], headers=header) as response:
                content = await response.text()
        
        pattern = re.compile('<table class=\'api\'(.*?)</table>', re.S)
        data = pattern.findall(content)

        if not data:
            print ("Something is wrong. Might be station removed:[{}]({})".format(url[0], url[1]))
            continue

        data = "<table class='api' {} </table>".format(data[0])
        soup = BeautifulSoup(data, 'lxml')

        aqi = soup.find(id='aqiwgtvalue').text

        if aqi == '-':
            print ("No Data:[{}]({})".format(url[0], url[1]))
            continue

        t = soup.find(id='aqiwgtutime').get('val')

        t = time.strftime("%Y-%m-%d %H:%M:%S", time.localtime(int(t)))

        print ([url[0], aqi, t])


def main():
    global URLS_LIST
    req = requests.ohRequests()

    with sqlite.ohSqlite3(DB_NAME) as db:
        URLS_LIST = db.execute("select * from aqicn")


    coroutine_cnts = 10
    t = time.time()
    
    coros = []
    loop = asyncio.get_event_loop()
    for i in range(coroutine_cnts):
        coros.append(parser())

    loop.run_until_complete(asyncio.gather(*coros))

    print ("Total {}s".format(time.time()-t))

if __name__ == "__main__":
    main()

协程的数量不能太高,虽然IP不会被封,但是会导致大量的失败请求。我猜想这个网站其实用的就是它们提供的数据API,因此对它的访问是受到16PRS的限制的。

使用10条协程时,执行的时间为1160s;50条协程时,时间为321s。效果还是很明显的。

一个不难理解的事实是,协程不断增加不代表时间会越来越短,达到某个阈值的时候,时间就不会再变了。这是因为当第一个协程收到响应时,本来应该醒来继续执行,但是因为协程数量过多,导致其不会立刻苏醒,就等于继续阻塞了。如果无限增加协程数量,一方面会导致资源消耗增大,另一方面也会导致性能下降。

结果比较

序号 使用方法 执行时间(s)
1 单线程 1463
2 10条协程 1160
3 50条协程 321
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,635评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,628评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,971评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,986评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,006评论 6 394
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,784评论 1 307
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,475评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,364评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,860评论 1 317
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,008评论 3 338
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,152评论 1 351
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,829评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,490评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,035评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,156评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,428评论 3 373
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,127评论 2 356

推荐阅读更多精彩内容