爬虫系列(十五):多线程爬虫

多线程糗事百科案例

案例要求参考上一个糗事百科单进程案例

Queue(队列对象)

Queue是python中的标准库,可以直接import Queue引用;队列是线程间最常用的交换数据的形式

python下多线程的思考

对于资源,加锁是个重要的环节。因为python原生的list,dict等,都是not thread safe的。而Queue,是线程安全的,因此在满足使用条件下,建议使用队列

1.初始化: class Queue.Queue(maxsize) FIFO 先进先出

2.包中的常用方法:

  • Queue.qsize() 返回队列的大小

  • Queue.empty() 如果队列为空,返回True,反之False

  • Queue.full() 如果队列满了,返回True,反之False

  • Queue.full 与 maxsize 大小对应

  • Queue.get([block[, timeout]])获取队列,timeout等待时间

3.创建一个“队列”对象

  • import Queue
  • myqueue = Queue.Queue(maxsize = 10)

4.将一个值放入队列中

  • myqueue.put(10)
  1. 将一个值从队列中取出

    • myqueue.get()

多线程示意图

image.png
    # -*- coding:utf-8 -*-
    import requests
    from lxml import etree
    from Queue import Queue
    import threading
    import time
    import json


    class thread_crawl(threading.Thread):
        '''
        抓取线程类
        '''

        def __init__(self, threadID, q):
            threading.Thread.__init__(self)
            self.threadID = threadID
            self.q = q

        def run(self):
            print "Starting " + self.threadID
            self.qiushi_spider()
            print "Exiting ", self.threadID

        def qiushi_spider(self):
            # page = 1
            while True:
                if self.q.empty():
                    break
                else:
                    page = self.q.get()
                    print 'qiushi_spider=', self.threadID, ',page=', str(page)
                    url = 'http://www.qiushibaike.com/8hr/page/' + str(page) + '/'
                    headers = {
                        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2743.116 Safari/537.36',
                        'Accept-Language': 'zh-CN,zh;q=0.8'}
                    # 多次尝试失败结束、防止死循环
                    timeout = 4
                    while timeout > 0:
                        timeout -= 1
                        try:
                            content = requests.get(url, headers=headers)
                            data_queue.put(content.text)
                            break
                        except Exception, e:
                            print 'qiushi_spider', e
                    if timeout < 0:
                        print 'timeout', url


    class Thread_Parser(threading.Thread):
        '''
        页面解析类;
        '''

        def __init__(self, threadID, queue, lock, f):
            threading.Thread.__init__(self)
            self.threadID = threadID
            self.queue = queue
            self.lock = lock
            self.f = f

        def run(self):
            print 'starting ', self.threadID
            global total, exitFlag_Parser
            while not exitFlag_Parser:
                try:
                    '''
                    调用队列对象的get()方法从队头删除并返回一个项目。可选参数为block,默认为True。
                    如果队列为空且block为True,get()就使调用线程暂停,直至有项目可用。
                    如果队列为空且block为False,队列将引发Empty异常。
                    '''
                    item = self.queue.get(False)
                    if not item:
                        pass
                    self.parse_data(item)
                    self.queue.task_done()
                    print 'Thread_Parser=', self.threadID, ',total=', total
                except:
                    pass
            print 'Exiting ', self.threadID

        def parse_data(self, item):
            '''
            解析网页函数
            :param item: 网页内容
            :return:
            '''
            global total
            try:
                html = etree.HTML(item)
                result = html.xpath('//div[contains(@id,"qiushi_tag")]')
                for site in result:
                    try:
                        imgUrl = site.xpath('.//img/@src')[0]
                        title = site.xpath('.//h2')[0].text
                        content = site.xpath('.//div[@class="content"]/span')[0].text.strip()
                        vote = None
                        comments = None
                        try:
                            vote = site.xpath('.//i')[0].text
                            comments = site.xpath('.//i')[1].text
                        except:
                            pass
                        result = {
                            'imgUrl': imgUrl,
                            'title': title,
                            'content': content,
                            'vote': vote,
                            'comments': comments,
                        }

                        with self.lock:
                            # print 'write %s' % json.dumps(result)
                            self.f.write(json.dumps(result, ensure_ascii=False).encode('utf-8') + "\n")

                    except Exception, e:
                        print 'site in result', e
            except Exception, e:
                print 'parse_data', e
            with self.lock:
                total += 1

    data_queue = Queue()
    exitFlag_Parser = False
    lock = threading.Lock()
    total = 0

    def main():
        output = open('qiushibaike.json', 'a')

        #初始化网页页码page从1-10个页面
        pageQueue = Queue(50)
        for page in range(1, 11):
            pageQueue.put(page)

        #初始化采集线程
        crawlthreads = []
        crawlList = ["crawl-1", "crawl-2", "crawl-3"]

        for threadID in crawlList:
            thread = thread_crawl(threadID, pageQueue)
            thread.start()
            crawlthreads.append(thread)

        #初始化解析线程parserList
        parserthreads = []
        parserList = ["parser-1", "parser-2", "parser-3"]
        #分别启动parserList
        for threadID in parserList:
            thread = Thread_Parser(threadID, data_queue, lock, output)
            thread.start()
            parserthreads.append(thread)

        # 等待队列清空
        while not pageQueue.empty():
            pass

        # 等待所有线程完成
        for t in crawlthreads:
            t.join()

        while not data_queue.empty():
            pass
        # 通知线程是时候退出
        global exitFlag_Parser
        exitFlag_Parser = True

        for t in parserthreads:
            t.join()
        print "Exiting Main Thread"
        with lock:
            output.close()


    if __name__ == '__main__':
        main()
image.png
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,589评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,615评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,933评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,976评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,999评论 6 393
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,775评论 1 307
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,474评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,359评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,854评论 1 317
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,007评论 3 338
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,146评论 1 351
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,826评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,484评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,029评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,153评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,420评论 3 373
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,107评论 2 356

推荐阅读更多精彩内容