【小白学爬虫连载(8)】--scrapy框架入门教程

欢迎大家关注公众号【哈希大数据】

在本篇分享中,假定您已经安装好Scrapy。 如若不然,请参考Scrapy安装。接下来将通过爬取scrapy官方提供的一个网站,演示如何利用scrapy爬取网页信息。可能有的朋友有疑问,之前已经介绍过requests库,为啥还要用scrapy呢?简单来讲就是requests库适合小批量爬取网页内容,如若需要高频次、大批量爬取网页还是scrapy比较好用,而且很多公司要求熟练掌握scrapy框架,所以技多不压身嘛,接下来咱们就好好学学scrapy。

爬取流程分析

目标网站:http://quotes.toscrape.com/

image

爬取目标:获取所有名言、其作者和标签

爬取流程:首先获取首页目标信息,其次注意到页面中存在下一页的链接,采用递归调用的方式进行翻页爬取,最后保存爬取信息。

接下来介绍如何用scrapy框架实现以上流程。

创建项目

在开始爬取之前,您必须创建一个新的Scrapy项目。 在命令窗口中进入您打算存储代码的目录中,运行下列命令:

scrapy startproject tutorial quotes.toscrape.com

该命令将会创建包含下列内容的 tutorial 目录:

tutorial/
scrapy.cfg
tutorial/
init.py
items.py
pipelines.py
settings.py
spiders/
init.py
...

这些文件分别是:

scrapy.cfg: 项目的配置文件

tutorial/: 该项目的python模块。之后您将在此加入代码。

tutorial/items.py: 项目中的item文件.

tutorial/pipelines.py: 项目中的pipelines文件.

tutorial/settings.py: 项目的设置文件.

tutorial/spiders/: 放置spider代码的目录.

定义Item

Item 是保存爬取到的数据的容器;其使用方法和python字典类似, 并且提供了额外保护机制来避免拼写错误导致的未定义字段错误。

类似在ORM中做的一样,您可以通过创建一个 scrapy.Item 类, 并且定义类型为 scrapy.Field 的类属性来定义一个Item。 (如果不了解ORM, 不用担心,您会发现这个步骤非常简单)

首先根据需要从quotes.toscrape获取到的数据对item进行建模。 我们需要从quotes.toscrape中获取名言,作者以及标签。 对此,在item中定义相应的字段。编辑 tutorial 目录中的 items.py 文件:

import scrapyclass QuoteItem(scrapy.Item):    # define the fields for your item here like:    # name = scrapy.Field()    text = scrapy.Field()    author = scrapy.Field()    tags = scrapy.Field()

一开始这看起来可能有点复杂,但是通过定义item, 您可以很方便的使用Scrapy的其他方法。而这些方法需要知道您的item的定义。

编写第一个爬虫(Spider)

命令窗口中,在 tutorial/spiders 目录下,输入命令:

scrapy genspider quotes quotes.toscrape.com

在该目录下得到quotes.py文件,初始代码如下:

# -*- coding: utf-8 -*-import scrapyclass QuotesSpider(scrapy.Spider):    name = "quotes"    allowed_domains = ["quotes.toscrape.com"]    start_urls = ['http://quotes.toscrape.com/']    def parse(self, response):        pass

完成爬取任务的完整代码如下:

# -*- coding: utf-8 -*-import scrapyfrom quotetutorial.items import QuoteItemclass QuotesSpider(scrapy.Spider):    # spider的名字,该名字必须是唯一的,您不可以为不同的Spider设定相同的名字。    name = "quotes"    allowed_domains = ["quotes.toscrape.com"]    # 包含了Spider在启动时进行爬取的url列表。 因此,第一个被获取到的页面将是其中之一。 后续的URL则从初始的URL获取到的数据中提取。    start_urls = ['http://quotes.toscrape.com/']    # parse() 是spider的一个方法。 被调用时,每个初始URL完成下载后生成的 Response 对象将会作为唯一的参数传递给该函数。 该方法负责解析返回的数据(response data),提取数据(生成item)以及生成需要进一步处理的URL的 Request 对象。    def parse(self, response):        # 从网页中提取数据有很多方法。Scrapy使用了一种基于 XPath 和 CSS 表达式机制,有以下四个基本方法:        #1\. xpath(): 传入xpath表达式,返回该表达式所对应的所有节点的selector list列表 。        #2\. css(): 传入CSS表达式,返回该表达式所对应的所有节点的selector list列表.        #3\. extract(): 序列化该节点为unicode字符串并返回list。        #4\. re(): 根据传入的正则表达式对数据进行提取,返回unicode字符串list列表。        quotes = response.css('.quote')        for quote in quotes:            item = QuoteItem()            text = quote.css('.text::text').extract_first()            author = quote.css('.author::text').extract_first()            tags = quote.css('.tags .tag::text').extract()            item['text'] = text            item['author'] = author            item['tags'] = tags            yield item        # 获取下一页的链接        next = response.css('.pager .next a::attr(href)').extract_first()        # 补全链接        url = response.urljoin(next)        # 利用Request函数实现递归调用parse解析下一页内容        yield scrapy.Request(url=url, callback=self.parse)

提取数据

从网页中提取数据有很多方法。Scrapy使用了一种基于 XPath 和 CSS 表达式机制,有以下四个基本方法:

  • xpath(): 传入xpath表达式,返回该表达式所对应的所有节点的selector list列表 。

  • css(): 传入CSS表达式,返回该表达式所对应的所有节点的selector list列表.

  • extract(): 序列化该节点为unicode字符串并返回list。

  • re(): 根据传入的正则表达式对数据进行提取,返回unicode字符串list列表。

    具体的用法及语法格式可查看:http://scrapy-chs.readthedocs.io/zh_CN/0.24/topics/selectors.html#topics-selectors

爬取并保存爬取到的数据

进入项目根目录,执行以下命令启动爬虫:

scrapy crawl quotes -o items.json #保存为json格式

scrapy crawl quotes -o items.jl #保存为json格式

scrapy crawl quotes -o items.csv #保存为json格式

这是简单的保存几种数据的方法,后面分享如何将数据保存到MongoDB数据库中。

小结

本次分享简单介绍Python重要的爬虫框架scrapy如何入门,如何创建项目,编写第一个爬虫,提取数据,保存数据,后面会用scrapy框架编写一个爬取新闻的爬虫,届时将分享如何将数据保存到MongoDB数据库中。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,793评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,567评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,342评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,825评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,814评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,680评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,033评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,687评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,175评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,668评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,775评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,419评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,020评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,978评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,206评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,092评论 2 351
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,510评论 2 343

推荐阅读更多精彩内容