新人报道篇---豆瓣读书笔记多线程加速

关于豆瓣Top250书籍读书笔记的爬取,涉及到的内容有:使用requests进行爬取、代理的设置、“生产者和消费者”(多线程加速)。

先确定好一个整体的思路,豆瓣Top250是一个静态网页,所以直接采取requests进行爬取,我们需要做的是第一:网页的翻页处理(静态网址十分容易构造出规律),第二:对每一页中的书本详情页进行爬取,第三:之后本来我试过想爬它的评论,但是有爬取限制,查阅后,发现只有它的笔记是可以全部爬取的,所以这里又有一个笔记的网页跳转和循环。思路很简单,翻页、获取id、笔记页的爬取,再套入到生产者和消费者模型,可以实现快速的爬取。

分解代码块如下,首先是生产者:

```python

class Producer(threading.Thread):

    def __init__(self,page_queue,detail_queue):#两个参数分别为列表队列和详情页对列

        super(Producer,self).__init__()

        self.page_queue = page_queue

        self.detail_queue = detail_queue

    def run(self):#线程里的run用法

        while True:

            if self.page_queue.empty():

                break

            url = self.page_queue.get()

            self.pares_url(url)

            time.sleep(3)

    def pares_url(self,url):

        response = session.get(url,headers=headers)

        doc = pq(response.text)#解析列表页

        for i in doc(".pl2 a").items():

            pinl = urljoin(i.attr("href"), pin)

            self.detail_queue.put(pinl)#获得书本详情页的编号,并加入到队列中

```

接下来是消费者代码:


```python

class Consumer(threading.Thread):

    def __init__(self,page_queue,detail_queue):

        super(Consumer,self).__init__()

        self.page_queue = page_queue

        self.detail_queue = detail_queue

    def run(self):

        global ls

        while True:

            if self.detail_queue.empty() and self.page_queue.empty():

                break

            detail_url = self.detail_queue.get()

            if detail_url == None:

                continue

            ls.append(detail_url)

        for i in range(20, 30):

            k = ls[i]#遍历列表中的书籍详情页

            fo = open("你的存储地址{p}.txt".format(p=i), "w+", encoding="utf-8")#将每篇书籍的评论分别保存为txt文件

            for m in range(25):

                response = requests.get(k.format(page=m * 10), headers=headers)#分析它的链接规律,可以发现它的评论数是页码*10递增的

                doc = pq(response.text)

                for i in doc("div.short > span").items():

                    print(i.text())

                    fo.write(i.text() + "\n")#找到评论节点并写入到txt中。

               

```

然后将调用main函数:


```python

def main():

    page_queue = Queue(100)

    detail_queue = Queue(100)#设置队列的数量

    for i in range(1,3):

        url = f"https://book.douban.com/top250?start={i*25}"#要爬取的列表页

        page_queue.put(url)

    for i in range(2):#生产者数量

        t = Producer(page_queue,detail_queue)

        t.start()

        time.sleep(1)

    for i in range(2):#消费者数量

        t = Consumer(page_queue,detail_queue)

        t.start()

        time.sleep(2)


```


注意生产者和消费者的数量不要过多,避免对服务器造成压力,在爬取的过程中,多次爬取豆瓣会识别出来,如图所示:

![在这里插入图片描述](https://img-blog.csdnimg.cn/a9caedd706d6403a99f6d44bb6d6000c.jpg?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA6LW35bqK5ZWmNjI5,size_20,color_FFFFFF,t_70,g_se,x_16#pic_center)

所以控制好抓取频率,或者购买静态代理是比较可取的做法。

最后给出完整代码,如下:


```python

import threading

import time

import requests

from queue import Queue

from pyquery import PyQuery as pq

pinlun = "annotation?sort=rank&start={page}"

from urllib.parse import urljoin

session = requests.Session()

start = time.time()

headers = {

    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.71 Safari/537.36 Edg/94.0.992.38",

    "Cookie": 'bid=9wav1Wro38U; ll="118212"; douban-fav-remind=1; gr_user_id=afac7f01-77c9-4e45-8b0c-5507d55a6ba2; _vwo_uuid_v2=DD8720E14FB6DAFA718D6ED15DAC45A01|444bff77e8a91775eec72192a78484e9; __yadk_uid=3nY6qPDW7U1rl7Mw6NtoqI9e61p5lBtZ; _ga=GA1.2.42061330.1632664255; viewed="1007305_5958397_1427374_3040149_2995812_1255624"; ap_v=0,6.0; __utma=30149280.42061330.1632664255.1633926859.1633960199.16; __utmz=30149280.1633960199.16.14.utmcsr=baidu|utmccn=(organic)|utmcmd=organic; __utmc=30149280; __utma=81379588.477759952.1633224891.1633926859.1633960199.7; __utmc=81379588; __utmz=81379588.1633960199.7.5.utmcsr=baidu|utmccn=(organic)|utmcmd=organic; _pk_ref.100001.3ac3=%5B%22%22%2C%22%22%2C1633960199%2C%22https%3A%2F%2Fwww.baidu.com%2Flink%3Furl%3DTLjsUHG06ralgyPcXRkhSh_rJfhYpSO41VRbdKUnzzeFc6g1D7KsrUGPfVrHmZPg%26wd%3D%26eqid%3D8d808366000980330000000561644101%22%5D; _pk_ses.100001.3ac3=*; gr_cs1_b1e59be5-217d-43fe-9dcf-b15c8dfa454c=user_id%3A0; __utmt_douban=1; __utmt=1; __utmt=1; dbcl2="248263534:+p1OUXqNmwM"; ck=rCrH; push_noty_num=0; push_doumail_num=0; __utmv=30149280.24826; __gads=ID=19cffab0026932ef-22adb7fdebcb002f:T=1632664256:S=ALNI_MbTm_GsPA6YzhpN_0VLc3c7Yy1umw; gr_session_id_22c937bbd8ebd703f2d8e9445f7dfd03=3af4e12c-28c9-4652-bc23-8dfa6c3ea1ff; gr_cs1_3af4e12c-28c9-4652-bc23-8dfa6c3ea1ff=user_id%3A1; gr_session_id_22c937bbd8ebd703f2d8e9445f7dfd03_3af4e12c-28c9-4652-bc23-8dfa6c3ea1ff=true; __utmb=30149280.52.10.1633960199; __utmb=81379588.25.10.1633960199; _pk_id.100001.3ac3=fb7827c4af37c8e5.1633224891.7.1633962055.1633927473.'}

class Producer(threading.Thread):

    def __init__(self,page_queue,detail_queue):

        super(Producer,self).__init__()

        self.page_queue = page_queue

        self.detail_queue = detail_queue

    def run(self):

        while True:

            if self.page_queue.empty():

                break

            url = self.page_queue.get()

            self.pares_url(url)

            time.sleep(3)

    def pares_url(self,url):

        response = session.get(url,headers=headers)

        doc = pq(response.text)

        for i in doc(".pl2 a").items():

            pinl = urljoin(i.attr("href"), pin)

            self.detail_queue.put(pinl)

ls = []

class Consumer(threading.Thread):

    def __init__(self,page_queue,detail_queue):

        super(Consumer,self).__init__()

        self.page_queue = page_queue

        self.detail_queue = detail_queue

    def run(self):

        global ls

        while True:

            if self.detail_queue.empty() and self.page_queue.empty():

                break

            detail_url = self.detail_queue.get()

            if detail_url == None:

                continue

            ls.append(detail_url)

        for i in range(20, 30):

            k = ls[i]

            fo = open("你的存储地址{p}.txt".format(p=i), "w+", encoding="utf-8")

            for m in range(25):

                response = requests.get(k.format(page=m * 10), headers=headers)

                doc = pq(response.text)

                for i in doc("div.short > span").items():

                    print(i.text())

                    fo.write(i.text() + "\n")


def main():

    page_queue = Queue(100)

    detail_queue = Queue(100)

    for i in range(1,3):

        url = f"https://book.douban.com/top250?start={i*25}"

        page_queue.put(url)

    for i in range(2):

        t = Producer(page_queue,detail_queue)

        t.start()

        time.sleep(1)

    for i in range(2):

        t = Consumer(page_queue,detail_queue)

        t.start()

        time.sleep(2)

if __name__ == "__main__":

    main()

```

最后完工了,欢迎各位小伙伴留言一起交流!!

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,444评论 6 496
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,421评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,036评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,363评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,460评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,502评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,511评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,280评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,736评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,014评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,190评论 1 342
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,848评论 5 338
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,531评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,159评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,411评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,067评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,078评论 2 352

推荐阅读更多精彩内容