爬虫系列(二十三):阳光热线问政平台

http://wz.sun0769.com/index.php/question/questionType?type=4

爬取投诉帖子的编号、帖子的url、帖子的标题,和帖子里的内容。

items.py

    import scrapy

    class DongguanItem(scrapy.Item):
        # 每个帖子的标题
        title = scrapy.Field()
        # 每个帖子的编号
        number = scrapy.Field()
        # 每个帖子的文字内容
        content = scrapy.Field()
        # 每个帖子的url
        url = scrapy.Field()

spiders/sunwz.py

Spider 版本

    # -*- coding: utf-8 -*-

    import scrapy
    from dongguan.items import DongguanItem

    class SunSpider(CrawlSpider):
        name = 'sun'
        allowed_domains = ['wz.sun0769.com']
        url = 'http://wz.sun0769.com/index.php/question/questionType?type=4&page='
        offset = 0
        start_urls = [url + str(offset)]

        def parse(self, response):
            # 取出每个页面里帖子链接列表
            links = response.xpath("//div[@class='greyframe']/table//td/a[@class='news14']/@href").extract()
            # 迭代发送每个帖子的请求,调用parse_item方法处理
            for link in links:
                yield scrapy.Request(link, callback = self.parse_item)
            # 设置页码终止条件,并且每次发送新的页面请求调用parse方法处理
            if self.offset <= 71130:
                self.offset += 30
                yield scrapy.Request(self.url + str(self.offset), callback = self.parse)

        # 处理每个帖子里
        def parse_item(self, response):
            item = DongguanItem()
            # 标题
            item['title'] = response.xpath('//div[contains(@class, "pagecenter p3")]//strong/text()').extract()[0]

            # 编号
            item['number'] = item['title'].split(' ')[-1].split(":")[-1]

            # 文字内容,默认先取出有图片情况下的文字内容列表
            content = response.xpath('//div[@class="contentext"]/text()').extract()
            # 如果没有内容,则取出没有图片情况下的文字内容列表
            if len(content) == 0:
                content = response.xpath('//div[@class="c1 text14_2"]/text()').extract()
                # content为列表,通过join方法拼接为字符串,并去除首尾空格
                item['content'] = "".join(content).strip()
            else:
                item['content'] = "".join(content).strip()

            # 链接
            item['url'] = response.url

            yield item

CrawlSpider 版本

    # -*- coding: utf-8 -*-
    import scrapy
    from scrapy.linkextractors import LinkExtractor
    from scrapy.spiders import CrawlSpider, Rule
    from dongguan.items import DongguanItem
    import time


    class SunSpider(CrawlSpider):
        name = 'sun'
        allowed_domains = ['wz.sun0769.com']
        start_urls = ['http://wz.sun0769.com/index.php/question/questionType?type=4&page=']

        # 每一页的匹配规则
        pagelink = LinkExtractor(allow=('type=4'))
        # 每个帖子的匹配规则
        contentlink = LinkExtractor(allow=r'/html/question/\d+/\d+.shtml')

        rules = [
            # 本案例为特殊情况,需要调用deal_links方法处理每个页面里的链接
            Rule(pagelink, process_links = "deal_links", follow = True),
            Rule(contentlink, callback = 'parse_item')
        ]

        # 需要重新处理每个页面里的链接,将链接里的‘Type&type=4?page=xxx’替换为‘Type?type=4&page=xxx’(或者是Type&page=xxx?type=4’替换为‘Type?page=xxx&type=4’),否则无法发送这个链接
        def deal_links(self, links):
            for link in links:
                link.url = link.url.replace("?","&").replace("Type&", "Type?")
                print link.url
            return links


        def parse_item(self, response):
            print response.url
            item = DongguanItem()
            # 标题
            item['title'] = response.xpath('//div[contains(@class, "pagecenter p3")]//strong/text()').extract()[0]

            # 编号
            item['number'] = item['title'].split(' ')[-1].split(":")[-1]

            # 文字内容,默认先取出有图片情况下的文字内容列表
            content = response.xpath('//div[@class="contentext"]/text()').extract()
            # 如果没有内容,则取出没有图片情况下的文字内容列表
            if len(content) == 0:
                content = response.xpath('//div[@class="c1 text14_2"]/text()').extract()
                # content为列表,通过join方法拼接为字符串,并去除首尾空格
                item['content'] = "".join(content).strip()
            else:
                item['content'] = "".join(content).strip()

            # 链接
            item['url'] = response.url

            yield item

pipelines.py

    # -*- coding: utf-8 -*-

    # 文件处理类库,可以指定编码格式
    import codecs
    import json

    class JsonWriterPipeline(object):

        def __init__(self):
            # 创建一个只写文件,指定文本编码格式为utf-8
            self.filename = codecs.open('sunwz.json', 'w', encoding='utf-8')

        def process_item(self, item, spider):
            content = json.dumps(dict(item), ensure_ascii=False) + "\n"
            self.filename.write(content)
            return item

        def spider_closed(self, spider):
            self.file.close()

settings.py

    ITEM_PIPELINES = {
        'dongguan.pipelines.DongguanPipeline': 300,
    }

    # 日志文件名和处理等级
    LOG_FILE = "dg.log"
    LOG_LEVEL = "DEBUG"

在项目根目录下新建main.py文件,用于调试

  from scrapy import cmdline
  cmdline.execute('scrapy crawl sunwz'.split())

执行程序

  py2 main.py
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,383评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,522评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,852评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,621评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,741评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,929评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,076评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,803评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,265评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,582评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,716评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,395评论 4 333
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,039评论 3 316
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,798评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,027评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,488评论 2 361
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,612评论 2 350

推荐阅读更多精彩内容