Python使用asyncio+aiohttp异步爬取猫眼电影专业版

asyncio是从pytohn3.4开始添加到标准库中的一个强大的异步并发库,可以很好地解决python中高并发的问题,入门学习可以参考官方文档

并发访问能极大的提高爬虫的性能,但是requests访问网页是阻塞的,无法并发,所以我们需要一个更牛逼的库 aiohttp ,它的用法与requests相似,可以看成是异步版的requests,下面通过实战爬取猫眼电影专业版来熟悉它们的使用:

1. 分析

分析网页源代码发现猫眼专业版是一个动态网页,其中的数据都是后台传送的,打开F12调试工具,再刷新网页选择XHR后发现第一条就是后台发来的电影数据,由此得到接口 https://box.maoyan.com/promovie/api/box/second.json?beginDate=日期

在这里插入图片描述


2. 异步爬取

创建20个任务来并发爬取20天的电影信息并写入csv文件,同时计算一下耗费的时间

import asyncio
from aiohttp import ClientSession
import time
import csv


headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) '
                             'AppleWebKit/537.36 (KHTML, like Gecko) '
                             'Chrome/67.0.3396.99 Safari/537.36'}

# 协程函数,完成一个无阻塞的任务
async def get_one_page(url):
    try:
        async with ClientSession() as session:
            async with session.get(url, headers=headers) as r:
                # 返回解析为字典的电影数据
                return await r.json()
    except Exception as e:
        print('请求异常: ' + str(e))
        return {}


# 解析函数,提取每一条内容并写入csv文件
def parse_one_page(movie_dict, writer):
    try:
        movie_list = movie_dict['data']['list']
        for movie in movie_list:
            movie_name = movie['movieName']
            release = movie['releaseInfo']
            sum_box = movie['sumBoxInfo']
            box_info = movie['boxInfo']
            box_rate = movie['boxRate']
            show_info = movie['showInfo']
            show_rate = movie['showRate']
            avg_show_view = movie['avgShowView']
            avg_seat_view = movie['avgSeatView']
            writer.writerow([movie_name, release, sum_box, box_info, box_rate,
                            show_info, show_rate, avg_show_view, avg_seat_view])
        return('写入成功')
    except Exception as e:
        return('解析异常: ' + str(e))


# 并发爬取
async def main():

    # 待访问的20个URL链接
    urls = ['https://box.maoyan.com/promovie/api/box/second.json?beginDate=201904{}{}'.format(i, j) for i in range(1, 3) for j in range(10)]
    # 任务列表
    tasks = [get_one_page(url) for url in urls]
    # 并发执行并保存每一个任务的返回结果
    results = await asyncio.gather(*tasks)

    # 处理每一个结果
    with open('out/pro_info.csv', 'w') as f:
        writer = csv.writer(f)
        for result in results:
            print(parse_one_page(result, writer))


if __name__ == "__main__":
    start = time.time()

    asyncio.run(main())
    # python3.7之前的写法
    # loop = asyncio.get_event_loop()
    # loop.run_until_complete(main())
    # loop.close()

    print(time.time()-start)
在这里插入图片描述

用时0.15秒!


3. 对比同步爬取

import requests
import csv
import time


headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) '
                             'AppleWebKit/537.36 (KHTML, like Gecko) '
                             'Chrome/67.0.3396.99 Safari/537.36'}


def get_one_page(url):

    try:
        r = requests.get(url, headers=headers)
        r.raise_for_status()
        r.encoding = r.apparent_encoding
        return r.json()
    except Exception as e:
        print('请求异常: ' + e)
        return {}


def parse_one_page(movie_dict, writer):
    try:
        movie_list = movie_dict['data']['list']
        for movie in movie_list:
            movie_name = movie['movieName']
            release = movie['releaseInfo']
            sum_box = movie['sumBoxInfo']
            box_info = movie['boxInfo']
            box_rate = movie['boxRate']
            show_info = movie['showInfo']
            show_rate = movie['showRate']
            avg_show_view = movie['avgShowView']
            avg_seat_view = movie['avgSeatView']
            writer.writerow([movie_name, release, sum_box, box_info, box_rate,
                            show_info, show_rate, avg_show_view, avg_seat_view])
        print('写入成功')
    except Exception as e:
        print('解析异常: ' + e)


def main():

    # 待访问的20个URL链接
    urls = ['https://box.maoyan.com/promovie/api/box/second.json?beginDate=201903{}{}'.format(i, j) for i in range(1, 3) for j in  range(10)]
    with open('out/pro_info.csv', 'w') as f:
        writer = csv.writer(f)
        for url in urls:
            # 逐一处理
            movie_dict = get_one_page(url)
            parse_one_page(movie_dict, writer)


if __name__ == '__main__':
    a = time.time()
    main()
    print(time.time() - a)

在这里插入图片描述

可以看到使用asyncio+aiohttp的异步爬取方式要比简单的requests同步爬取快上不少,尤其是爬取大量网页的时候,这种差距会非常明显。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,490评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,581评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,830评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,957评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,974评论 6 393
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,754评论 1 307
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,464评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,357评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,847评论 1 317
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,995评论 3 338
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,137评论 1 351
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,819评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,482评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,023评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,149评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,409评论 3 373
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,086评论 2 355

推荐阅读更多精彩内容