爆赞!这篇文章详细的介绍了比requests更强大的宝库

大家好,我是剑南!

为了做一篇教程,我竟把一个小说网站给搞崩溃了,着实给我下了一跳,每次都是报出503的错误代码,意思是服务器不可访问,就是因为我用协程写了个爬虫程序。

注意:本文仅仅提供学习使用,不可破坏网络,否则后果自负!!

因为服务器接受不了这么大的压力,导致资源暂时无法访问,所以当我停止爬虫程序的时候,该小说网站逐渐恢复正常。

如果你有认真阅读我的博文的话,你会发现对多线程、队列、多进程的文章我分别只总结了一篇,但是关于协程的文章,今天是我第五次写了,说实话,协程涉及到的坑太多,也不容易,需要一次次总结自己所遇到的问题以及优化之前的代码。

关于多线程、多进程、队列等知识,我现在用到的比较少,因此总结的只有一篇,望读者见谅。

协程

协程的本质是单线程,它只是利用了程序中的延时时间,在不断的切换所执行的代码块。协程切换任务效率高,利用线程延时等待的时间,因此在实际处理时优先考虑使用协程。

初识异步http框架httpx

对协程不了解的小伙伴可以考虑翻出我之前写的文章,做简单的了解。对于requests库相信大家都不会陌生,但是requests中实现的http请求是同步请求,但是其实基于http请求的I/O阻塞特性,非常适合用协程来实现异步http请求

httpx继承了所有requests的特性并且支持异步http请求的开源库。

安装httpx

pip install httpx

实践

接下来我将使用httpx同步与异步的方式对批量的http请求进行耗时比较,来一起看看结果吧。

import httpx
import threading
import time


def send_requests(url, sign):
    status_code = httpx.get(url).status_code
    print(f'send_requests:{threading.current_thread()}:{sign}: {status_code}')


start = time.time()
url = 'http://www.httpbin.org/get'
[send_requests(url, sign=i) for i in range(200)]
end = time.time()
print('运行时间:', int(end - start))

代码比较简单,可以看出send_requests中实现了同步访问了目标地址200次。

部分运行结果,如下所示:

send_requests:<_MainThread(MainThread, started 9552)>:191: 200
send_requests:<_MainThread(MainThread, started 9552)>:192: 200
send_requests:<_MainThread(MainThread, started 9552)>:193: 200
send_requests:<_MainThread(MainThread, started 9552)>:194: 200
send_requests:<_MainThread(MainThread, started 9552)>:195: 200
send_requests:<_MainThread(MainThread, started 9552)>:196: 200
send_requests:<_MainThread(MainThread, started 9552)>:197: 200
send_requests:<_MainThread(MainThread, started 9552)>:198: 200
send_requests:<_MainThread(MainThread, started 9552)>:199: 200
运行时间: 102

从运行结果上可以看到,主线程是按照顺序执行的,因为这是同步请求。

程序共耗时102秒。

它来了,它来了,下面就让我们试试异步的http请求,看看它会给我们带来什么样的惊喜。

import asyncio
import httpx
import threading
import time


client = httpx.AsyncClient()


async def async_main(url, sign):

    response = await client.get(url)
    status_code = response.status_code
    print(f'{threading.current_thread()}:{sign}:{status_code}')


def main():
    loop = asyncio.get_event_loop()
    tasks = [async_main(url='https://www.baidu.com', sign=i) for i in range(200)]
    async_start = time.time()
    loop.run_until_complete(asyncio.wait(tasks))
    async_end = time.time()
    loop.close()
    print('运行时间:', async_end-async_start)


if __name__ == '__main__':
    main()

部分运行结果,如下所示:

<_MainThread(MainThread, started 13132)>:113:200
<_MainThread(MainThread, started 13132)>:51:200
<_MainThread(MainThread, started 13132)>:176:200
<_MainThread(MainThread, started 13132)>:174:200
<_MainThread(MainThread, started 13132)>:114:200
<_MainThread(MainThread, started 13132)>:49:200
<_MainThread(MainThread, started 13132)>:52:200
运行时间: 1.4899322986602783

看到这个运行时间有没有让你吓一大跳,居然在1秒多的时间里,向百度访问了200次。速度快到飞起。

限制并发数

前面我讲过并发数太大会导致服务器崩溃,因此我们要考虑限制并发数,那么当asyncio与httpx结合的时候应该怎么样限制并发数呢?

使用Semaphore

asyncio其实自带了一个限制协程数量的类,叫做Semaphore。我们只需要初始化它,传入最大允许协程数量,然后就可以通过上下文管理器。具体代码如下所示:

import asyncio
import httpx
import time


async def send_requests(delay, sem):
    print(f'请求一个延时为{delay}秒的接口')
    await asyncio.sleep(delay)
    async with sem:
        # 执行并发的代码
        async with httpx.AsyncClient(timeout=20) as client:
            resp = await client.get('http://www.httpbin.org/get')
            print(resp)


async def main():
    start = time.time()
    delay_list = [3, 6, 1, 8, 2, 4, 5, 2, 7, 3, 9, 8]
    task_list = []
    sem = asyncio.Semaphore(3)
    for delay in delay_list:
        task = asyncio.create_task(send_requests(delay, sem))
        task_list.append(task)
    await asyncio.gather(*task_list)
    end = time.time()
    print('一共耗时:', end-start)


asyncio.run(main())

部分运行结果,如下所示:

<Response [200 OK]>
<Response [200 OK]>
<Response [200 OK]>
<Response [200 OK]>
<Response [200 OK]>
<Response [200 OK]>
<Response [200 OK]>
<Response [200 OK]>
一共耗时: 9.540421485900879

但是,如果想要在1分钟内只有3个协程,又该如何处理呢?

只需要将代码改成如下图所示就行:

async def send_requests(delay, sem):
    print(f'请求一个延时为{delay}秒的接口')
    await asyncio.sleep(delay)
    async with sem:
        # 执行并发的代码
        async with httpx.AsyncClient(timeout=20) as client:
            resp = await client.get('http://www.httpbin.org/get')
            print(resp)
    await asyncio.sleep(60)

总结

如果大家要限制协程的并发数,那么最简单的方式就是使用Semaphore。但是需要注意的是,只能在启动协程之前初始化,然后传给协程,确保并发协程拿到的是同一个Semaphore对象。

当然,在程序里面也有可能出现不同部分,每个部分的并发数可能是不同的,因此需要初始化多个Semaphore对象。

实战-笔趣阁

网页分析

小说首页

首先在小说的主页,可以发现所有小说的章节链接都在dd标签下的a标签内的href属性中。

首先第一步要做的就是拿到所有的章节链接。

接下来要做的就是,进入每一个章节,获取其中的内容。

小说章节

从上图可以看到,文章内容在<div id="content">标签中,在图片中可以发现大量的换行,因此在写代码时需要做进一步去除空格的处理。

获取网页源码

async def get_home_page(url, sem):
    async with sem:
        async with httpx.AsyncClient(timeout=20) as client:
            resp = await client.get(url)
            resp.encoding = 'utf-8'
            html = resp.text
            return html

获取所有的章节链接

async def parse_home_page(sem):
    async with sem:
        url = 'https://www.biqugeu.net/13_13883/'
        html = etree.HTML(await get_home_page(url, sem))
        content_urls = ['https://www.biqugeu.net/' + url for url in html.xpath('//dd/a/@href')]
        return content_urls

在这里需要注意,我多做了一个操作那就是拼接url,因为我们抓取到的url并不是完整的因此需要做简单的拼接。

保存数据

async def data_save(url, sem):
    async with sem:
        html = etree.HTML(await get_home_page(url, sem))
        title = html.xpath('//h1/text()')[0]
        contents = html.xpath('//div[@id="content"]/text()')
        print(f'正在下载{title}')
        for content in contents:
            text = ''.join(content.split())

            with open(f'./金枝2/{title}.txt', 'a', encoding='utf-8') as f:
                f.write(text)
                f.write('\n')

将上面获取到的url传入data_save()函数中,对每一个url进行解析,获取文本内容,再进行保存。

创建协程任务

async def main():
    sem = asyncio.Semaphore(20)
    urls = await parse_home_page(sem)
    tasks_list = []
    for url in urls:
        task = asyncio.create_task(data_save(url, sem))
        tasks_list.append(task)
    await asyncio.gather(*tasks_list)

结果展示

抓取结果

不到一分钟的时间,便将所有的小说都抓取下来了,试想一下,如果是普通爬虫要多久?

起码737秒!!

最后

这次会是我最后一次写协程码?肯定不是啦,还有一篇关于异步网络请求库Aiohttp,等我遇到之后再分享给大家。

本次分享到这里就结束了,如果你看到了这里,希望你可以给我点个【】与【再看】,如果可以,请你分享给更多的人一起学习。

文章的每一个字都是我用心写出来的,你的【点赞】会让我知道,你就是那个和我一起努力的人。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,732评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,496评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,264评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,807评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,806评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,675评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,029评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,683评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 41,704评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,666评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,773评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,413评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,016评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,978评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,204评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,083评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,503评论 2 343

推荐阅读更多精彩内容