多线程requests爬取糗事百科

1.明确目标

  • 可以借助类,定义不同方法处理不同的步骤
  • 应该借助队列,将请求的url放入队列处理
  • 可以借助多个队列将请求,放回的html,抓取的内容都放在队列中,可以避免线程间的变量不安全问题,

上代码:

# -*- coding:utf-8 -*-
import requests
import time
from lxml import etree
from queue import Queue
import json
import threading


class Qiushi(object):
    def __init__(self):
        self.headers = {
            "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_5) AppleWeb\
                    Kit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36"
        }
        # 实例化三个队列,用来存放内容
        self.url_queue = Queue()
        self.html_queue = Queue()
        self.content_queue = Queue()


    def get_toal_url(self):
        """
        获取所有的页面url,并且返回urllist
        :return: urllist
        """
        url_temp = "https://www.qiushibaike.com/8hr/page/{}/"
        url_list = []
        for i in range(1,36):
            self.url_queue.put(url_temp.format(i))


    def parse_url(self):
        """
        一个发送请求,获取响应,同时etree处理html
        :return:
        """
        while self.url_queue.not_empty:
            time.sleep(2)
            url = self.url_queue.get()
            print("开始发起请求 url:",url)
            response = requests.get(url, headers=self.headers, timeout=10)#发起请求
            html = response.content.decode()#获取html字符串
            html = etree.HTML(html)#获取element 类型的html
            self.html_queue.put(html)
            # 这里可能队列数已经空了,但是消费者手里还有正在消费的队列
            # 发出完成的信号,不发的话,join会永远阻塞,程序不会停止
            self.url_queue.task_done()


    def get_content(self):
        """
        :param url:
        :return: 一个list,包含一个url对应页面的所有段子的的所有内容的列表
        """
        while self.html_queue.not_empty:
            html = self.html_queue.get()
            total_div = html.xpath('//div[@id="content-left"]/div')#返回divelememtn的一个列表
            print(len(total_div))
            items = []
            for i in total_div:#遍历div标枪,获取糗事百科每条的内容的全部信息
                author_name = i.xpath("./div[@class='author clearfix']/a[2]/h2/text()")[0].replace('\n','') if i.xpath("./div[@class='author clearfix']/a[2]/h2/text()") else "匿名用户"
                # print(author_name)
                if author_name != "匿名用户":
                    author_img = 'https:'+i.xpath("./div[@class='author clearfix']/a[1]/img/@src")[0]
                    author_href = "https://www.qiushibaike.com" +i.xpath("./div[@class='author clearfix']/a[2]/@href")[0]
                    author_gender = i.xpath('./div[@class="author clearfix"]//div/@class')[0].split(' ')[-1].replace("Icon", "")
                    author_age = i.xpath('./div[@class="author clearfix"]//div/text()')[0]
                else:
                    author_img = None
                    author_href = None
                    author_gender = None
                    author_age = None
                author_content = i.xpath('./a[1]/div[@class="content"]/span/text()')
                author_vote = i.xpath('./div[@class="stats"]/span[1]/i/text()')[0].replace('\n', '') if i.xpath('./div[@class="stats"]/span[1]/i/text()')[0] else 0
                author_comment = i.xpath('./div[@class="stats"]/span[2]/a/i/text()')[0].replace('\n', '')if  i.xpath('./div[@class="stats"]/span[2]/a/i/text()') else 0
                hot_comment_author = i.xpath('./a[@class="indexGodCmt"]/div/span[last()]/text()') if i.xpath('./a[@class="indexGodCmt"]/div/span[last()]/text()') else None
                if hot_comment_author != None:
                    hot_comment = i.xpath('./a[@class="indexGodCmt"]/div/div/text()')[0].replace("\n:", "").replace("\n", "")
                    hot_comment_like_num = i.xpath('./a[@class="indexGodCmt"]//div[@class="likenum"]/text()')[0].replace("\n",'')
                else:
                    hot_comment=None
                    hot_comment_like_num = None
                item = dict(
                    author_name=author_name,
                    author_img=author_img,
                    author_href=author_href,
                    author_gender=author_gender,
                    author_age=author_age,
                    content=author_content,
                    content_vote=author_vote,
                    content_comment_numbers=author_comment,
                    hot_comment=hot_comment,
                    hot_comment_author=hot_comment_author,
                    hot_comment_like_num=hot_comment_like_num,
                )
                items.append(item)
            self.content_queue.put(items)
            self.html_queue.task_done()#task_done的时候,队列计数减一



    def save_item(self):
        """
        保存items
        :params item:列表,
        :return:
        """
        while self.content_queue.not_empty:
            items = self.content_queue.get()
            f= open("qiubai.txt",'a',encoding='utf-8')
            for i in items:
                json.dump(i,f,ensure_ascii=False,indent=2)
            f.close()
            self.content_queue.task_done()



    def run(self):
        while 1:
            # 1.获取 url list
            # url_list = sel.get_total_url()
            thread_list = []
            thread_url = threading.Thread(target=self.get_toal_url)
            # thread_url.start()
            thread_list.append(thread_url)
            #发起网络请求
            for i in range(10):
                thread_parse = threading.Thread(target=self.parse_url)
                thread_list.append(thread_parse)
            #提取数据
            thread_get_content = threading.Thread(target=self.get_content)
            thread_list.append(thread_get_content)
            #保存
            thread_save = threading.Thread(target=self.save_item)
            thread_list.append(thread_save)

            for t in thread_list:
                print()
                t.setDaemon(True)  # 为每个进程设置为后台进程,效果是主进程退出子进程也会退出
                t.start()        #为了解决程序结束无法退出的问题

            self.url_queue.join()  # 让主线程等待,所有的队列为空的时候才能退出
            self.html_queue.join()
            self.content_queue.join()
            time.sleep(600)



if __name__ == "__main__":
    qiubai = Qiushi()
    qiubai.run()

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,539评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,911评论 3 391
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,337评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,723评论 1 290
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,795评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,762评论 1 294
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,742评论 3 416
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,508评论 0 271
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,954评论 1 308
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,247评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,404评论 1 345
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,104评论 5 340
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,736评论 3 324
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,352评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,557评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,371评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,292评论 2 352

推荐阅读更多精彩内容

  • 1.ios高性能编程 (1).内层 最小的内层平均值和峰值(2).耗电量 高效的算法和数据结构(3).初始化时...
    欧辰_OSR阅读 29,362评论 8 265
  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 134,649评论 18 139
  • Swift1> Swift和OC的区别1.1> Swift没有地址/指针的概念1.2> 泛型1.3> 类型严谨 对...
    cosWriter阅读 11,094评论 1 32
  • 在一个方法内部定义的变量都存储在栈中,当这个函数运行结束后,其对应的栈就会被回收,此时,在其方法体中定义的变量将不...
    Y了个J阅读 4,416评论 1 14
  • 坐在茶台前,小青开始慢慢的泡茶,每个动作似乎都契合着大提琴声的节奏。在我和她之间,放置了一个圆形的小青铜香炉,香炉...
    小荼吉尼天阅读 187评论 0 0