Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。Scrapy的一个最主要的优势: 请求(request)是被异步调度和处理的。 这意味着,Scrapy并不需要等待一个请求(request)完成及处理,在此同时, 也发送其他请求或者做些其他事情。 这也意味着,当有些请求失败或者处理过程中出现错误时,其他的请求也能继续处理。在允许您可以以非常快的速度进行爬取时(以容忍错误的方式同时发送多个request), Scrapy也通过 一些设置来允许您控制其爬取的方式。 例如,您可以为两个request之间设置下载延迟, 限制单域名(domain)或单个IP的并发请求量,甚至可以 使用自动限制插件 来自动处理这些问题。
scrapy项目创建及目录结构
在开始爬取之前,您必须创建一个新的Scrapy项目。 进入您打算存储代码的目录中,运行下列命令:scrapy startproject projectname
在文件夹内可以看到该项目的目录结构
我们可以看到这里生成了一个与项目名称同名的文件夹,该文件夹下有一个同名文件夹和一个scrapy.cfg文件。
- 同名文件夹放置爬虫项目核心代码
-
__init__.py
为项目的初始化文件,主要写的是一些项目的初始化信息。 -
items.py
定义我们要爬取信息的数据容器,相当于java的类。 -
middlewares.py
Spider中间件,在这个文件里我们可以定义相关的方法,用以处理蜘蛛的响应输入和请求输出。 -
pipelines.py
要启用此文件的话必须要在settings.py
里配置一下ITEM_PIPELINES
,主要为对数据的进一步加工和处理,例如将数据保存为json,csv文件,或者保存到数据库中等等。 -
settings.py
这是本项目的配置文件,里面注释着很多常用的配置项,我们通过在其他文件中引入本文件的方式来使用这些配置项。
-
- scrapy.cfg为爬虫项目的配置文件
使用项目命令genspider创建Spider
根据创建项目时命令行提示进入项目文件夹内,运行scrapy genspider example example.com
这里要提到scrapy的命令,它分为全局命令和项目命令,使用scrapy <command> -h可以查看详细的命令信息
- 全局命令
-
fetch
主要来显示爬虫爬取的过程,用法scrapy fetch http://www.baidu.com
。如果在scrapy目录之外使用该命令,会调用默认的爬虫来进行网页爬取。如果在scrapy某个项目目录内使用该命令,则会调用该项目中的爬虫进行网页的爬取 -
runspider
可以实现不依托scrapy的爬虫项目直接运行一个爬虫文件 -
settings
查看scrapy对应的配置信息,项目内查看项目的配置信息,项目目录外查看是scrapy默认配置信息 -
shell
可以启动scrapy的交互终端。它可以在不启动scrapy爬虫的情况下,对网站响应进行调试。比如xpath或者css提取内容,可以现在这里调试成功后再写入到item中。 -
startproject
创建项目 -
version
显示scrapy的版本信息 -
view
实现下载某个网页并用浏览器查看
-
- 项目命令
-bench
测试本地硬件的性能
-genspider
创建scrapy爬虫文件
-check
实现对某个爬虫文件进行合同检查。爬虫的测试比较麻烦,所以在scrapy中使用合同(contract)的方式对爬虫进行测试
-crawl
启动爬虫,格式为scrapy crawl 爬虫名
-list
列出当前可用的爬虫文件
-edit
可以直接打开编辑器对爬虫文件进行编辑
-parse
实现获取指定的url网址,并使用对应的爬虫文件进行处理和分析