Scrapy爬虫-简介

文:郑元春

人生苦短,我用Python

由于最近需要做些大数据分析的工作,所以就学习了写下爬虫了,毕竟数据才是分析的基础。如果能够得到了数据,那么你的数据挖掘或者是数据分析工作就已经成功了一半。

什么是Scrapy?

Scrapy is a fast high-level web crawling and web scraping framework, used to crawl websites and extract structured data from their pages. It can be used for a wide range of purposes, from data mining to monitoring and automated testing.
项目文档:Scrapy文档
项目Git:源码

首先,先放上Scrapy的原理图:


scrapy各组件示意
scrapy各组件示意

绿色的箭头表示的是数据的流动方向。

通过看上面的示意图,我们可以看出最主要的核心部件是Scrapy Engine,;另外还有Scheduler + Downlodaer + Spiders + Item Pipeline 四个功能部件,除此之外还有自己配置的 Downloader Middleware+Spider Middleware两个可自由配置的拓展中间件。

1.Scrapy Engine
这是Scrapy的爬虫核心,主要负责控制系统各个部件之间的data flow,以及当特定事件发生的时候触发event。

2.Scheduler
接受engine发来的requests放入队列中,当engine要求的时候再提供给engine。

3.Downloader
负责拉取下载page并返给engine,engine之后再传递给Spiders

4.Spider
用户自行编写的代码类,这部分的用户代码主要完成解析response并提取item,或者是
跟进页面中获取的额外的link url。

Scrapy 命令

提供了两种命令方式,一种是全局的命令,不依托Scrapy项目的设置。另一种是项目命令,必须在项目的路径中执行,两者的区别就是是否需要load项目的设置(这个跟Django的命令行有点相似,实际上Scrapy的开发过程受到了Django的影响)

全局命令

startproject
settings
runspider
shell
fetch
view
version

项目命令

crawl
check
list
edit
parse
genspider
deploy
bench

创建项目

scrapy startproject tutorial(你的项目名称)
可以看出这和Django的命令一样

tutorial/
    scrapy.cfg
    tutorial/
        __init__.py
        items.py
        pipelines.py
        settings.py
        spiders/
            __init__.py
            ...

下面是项目的目录初始化结构,和Django的目录结构也一样。

  1. scrapy.cfg是整个项目的设置文件,用的是ini的设置方式。
  2. tutorial是和项目一样的子目录,里面的文件就是整个项目的python源码。
  3. spiders目录是自行编码的爬虫软件,大部分的逻辑和对页面的分析都在这里面了。
    一般是你startproject之后,你还要使用genspider 命令生成一个爬虫程序。

比如使用下面的命令生成一个spider程序:

scrapy genspider dmoz

这是给某个网站进行爬虫编写的逻辑代码。源码如下:

import scrapy

class DmozSpider(scrapy.Spider):
    name="domz"
    allowed_domains=['demo.org']
    start_urls=[
        "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/",
        "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/"
    ]

    def parse(self,response):
        print response.url

这就是一个最简单的爬虫程序。这里的class继承了scrapy的Spider类。必须要定义的变量是name+allowed_domains,name是标志了这个爬虫的名称,后面如果要运行爬虫程序的话需要使用这个name的值进行启动,另外一个allowed_domains则是定义了你爬取的域名,如果是爬虫在构造Request的时候那么需要检查URL是否在这个域名下,如果是不在这个域名中的URL就不会爬取。

至于start_urls则是指定你的爬虫需要从哪里开始爬取,相当于初始的入口。

还有一个parse函数,这个是默认的callback函数,也就是爬虫抓取了start_urls里面的网页之后,然后download完成之后需要通过这个默认的函数进行页面的解析(爬取你敢兴趣的数据)
这里除了name和allowed_domains是不能更改的,其他的都可以通过其他的方式进行改写(定制)
下面是基类Spider的源码,看下就知道你的爬虫代码为什么这么写了,当然这只是最简单的爬虫,就爬取了两个页面,然后只对爬取的页面输出页面url

Spider代码1
Spider代码2

有的教程上面写的是继承自BaseSpider,新版中已经改成了Spider类,并且在源码中声明了已经丢弃了BaseSpider的用法,将BaseSpider指到了Spider类上。
主要看的是name和start_urls的使用和生成上。还有parse需要在你的类中实现。

上面只是最简单的爬虫程序,还没涉及到item和pipeline的使用,在命令行中运行下面的指令,就可以启动爬虫程序并开始执行了。

scrapy crawl domz

这里crawl后面的参数就是你在你的子类中写的name的值。

参考

1.scrapy 笔记1--smiling博客
2.scrapy笔记2--smiling博客

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容