多线程爬虫实例(不完善)

import threading

from queue import Queue

import time

from lxml import etree

import requests

import json

class CrawlThread(threading.Thread):

def __init__(self, name, page_queue, data_queue):

super().__init__()

self.name = name

# 保存页码队列

self.page_queue = page_queue

self.data_queue = data_queue

# url

self.url = 'http://www.fanjian.net/duanzi-{}'

self.headers = {

'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36',

}

def run(self):

# 这里面的思路是什么?

while 1:

if self.page_queue.empty():

break

# 1、从页码队列中获取页码

page = self.page_queue.get()

# 2、将url和页码进行拼接

url = self.url.format(page)

# 3、发送请求,获取响应

r = requests.get(url=url, headers=self.headers)

time.sleep(1)

# 4、将响应内容放入到数据队列中

self.data_queue.put(r.text)

class ParseThread(threading.Thread):

def __init__(self, name, data_queue, lock, fp):

super().__init__()

self.name = name

# 保存数据队列

self.data_queue = data_queue

self.lock = lock

self.fp = fp

def run(self):

# 解析线程解析步骤

while 1:

if self.data_queue.empty():

break

# 1、从数据队列中取出一个数据

content = self.data_queue.get()

# 2、解析这个数据

items = self.parse_content(content)

# 3、写入到文件中

string = json.dumps(items, ensure_ascii=False)

# 加锁

print(self.fp,'类似会发士大夫')

self.lock.acquire()

self.fp.write(string)

# 释放锁

self.lock.release()

# 解析数据函数

def parse_content(content):

# 生成tree对象

tree = etree.HTML(content)

# 先找到所有的li标签

li_list = tree.xpath('//li[@class="cont-item"]')

items = []

for oli in li_list:

# 获取头像

face = oli.xpath('.//div[@class="cont-list-reward"]//img/@data-src')[0]

# 获取名字

name = oli.xpath('.//div[@class="cont-list-head"]/a/text()')[0]

# 获取内容

text = oli.xpath('.//div[@class="cont-list-main"]/p/text()')[0]

# 获取时间

shijian = oli.xpath('.//div[@class="cont-list-info fc-gray"]/text()')[-1]

item = {

'头像': face,

'名字': name,

'内容': text,

'时间': shijian,

}

# 将字典添加到列表中

items.append(item)

return items

def create_queue():

page_queue = Queue()

data_queue = Queue()

# 向页码队列中添加页码

for page in range(1, 11):

page_queue.put(page)

return page_queue, data_queue

def main():

# 做什么?

# 创建锁

lock = threading.Lock()

# 打开文件

fp = open('duanzi.txt', 'w', encoding='utf8')

# 创建两个队列

page_queue, data_queue = create_queue()

# 创建采集、解析线程

crawlname_list = ['采集线程1', '采集线程2', '采集线程3']

parsename_list = ['解析线程1', '解析线程2', '解析线程3']

# 列表,用来保存所有的采集线程和解析线程

t_crawl_list = []

t_parse_list = []

for crawlname in crawlname_list:

t_crawl = CrawlThread(crawlname, page_queue, data_queue)

t_crawl.start()

# 将对应的采集线程保存起来

t_crawl_list.append(t_crawl)

for parsename in parsename_list:

t_parse = ParseThread(parsename, data_queue, lock, fp)

# 将对应的解析线程保存起来

t_parse_list.append(t_parse)

t_parse.start()

# 让主线程等待子线程结束之后再结束

for t_crawl in t_crawl_list:

t_crawl.join()

for t_parse in t_parse_list:

t_parse.join()

fp.close()

if __name__ == '__main__':

main()

为什么里面没有写数据呢?

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • Python 面向对象Python从设计之初就已经是一门面向对象的语言,正因为如此,在Python中创建一个类和对...
    顺毛阅读 9,724评论 4 16
  • 接上文500 Lines or Less:A Web Crawler With asyncio Coroutine...
    彰乐乐乐乐阅读 5,589评论 0 2
  • 再次醒来之后,他看见他在空中飘着,前面有个小孩用绳子拉着他走,嘴里还在嘟囔着:“好累啊,人间的路怎么这么长,怎么还...
    广电1701b刘玉静阅读 1,850评论 1 1
  • 1 佩剑已妥,出门便是战场。 征夫换好戎装,拉开吱吱作响的门扉时,他清晰的看得家人眼里的错愕以及转瞬即逝的惊喜。取...
    z支枕听河流阅读 4,112评论 1 2
  • 看到这个命题我有点感兴趣了,很有挑战对于我来说,这是我最擅长却又是最不擅长的。 说到擅长,销售出身的我,对待陌...
    简iris阅读 2,600评论 0 1

友情链接更多精彩内容