1、定义
Spider类定义了如何爬取某个(或某些)网站。包括了爬取的动作(例如:是否跟进链接)以及如何从网页的内容中提取结构化数据(爬取item)。 换句话说,Spider就是您定义爬取的动作及分析某个网页(或者是有些网页)的地方。
对spider来说,爬取的循环类似下文:
- 以初始的URL初始化Request,并设置回调函数。 当该request下载完毕并返回时,将生成response,并作为参数传给该回调函数。
spider中初始的request是通过调用 start_requests()
来获取的。 start_requests()
读取 start_urls
中的URL, 并以 parse
为回调函数生成 Request
。
在回调函数内分析返回的(网页)内容,返回
Item
对象、dict、Request
或者一个包括三者的可迭代容器。 返回的Request对象之后会经过Scrapy处理,下载相应的内容,并调用设置的callback函数(函数可相同)。在回调函数内,您可以使用 选择器(Selectors) (您也可以使用BeautifulSoup, lxml 或者您想用的任何解析器) 来分析网页内容,并根据分析的数据生成item。
最后,由spider返回的item将被存到数据库(由某些 Item Pipeline 处理)或使用 Feed exports 存入到文件中。
虽然该循环对任何类型的spider都(多少)适用,但Scrapy仍然为了不同的需求提供了多种默认spider。 之后将讨论这些spider。
2、scrapy.Spider
classscrapy.spiders.Spider
Spider是最简单的spider。每个其他的spider必须继承自该类(包括Scrapy自带的其他spider以及您自己编写的spider)。 Spider并没有提供什么特殊的功能。 其仅仅提供了 start_requests()
的默认实现,读取并请求spider属性中的 start_urls
, 并根据返回的结果(resulting responses)调用spider的 parse
方法。
name
定义spider名字的字符串(string)。spider的名字定义了Scrapy如何定位(并初始化)spider,所以其必须是唯一的。 不过您可以生成多个相同的spider实例(instance),这没有任何限制。 name是spider最重要的属性,而且是必须的。
如果该spider爬取单个网站(single domain),一个常见的做法是以该网站(domain)(加或不加 后缀 )来命名spider。 例如,如果spider爬取
mywebsite.com
,该spider通常会被命名为mywebsite
。
allowed_domains
- 可选。包含了spider允许爬取的域名(domain)列表(list)。 当 OffsiteMiddleware 启用时, 域名不在列表中的URL不会被跟进。
start_urls
- URL列表。当没有制定特定的URL时,spider将从该列表中开始进行爬取。 因此,第一个被获取到的页面的URL将是该列表之一。 后续的URL将会从获取到的数据中提取。
custom_settings
该设置是一个dict.当启动spider时,该设置将会覆盖项目级的设置. 由于设置必须在初始化(instantiation)前被更新,所以该属性 必须定义为class属性.
请通过 内置设定参考手册 查看支持的设置.
crawler
- 该属性在初始化class后,由类方法
from_crawler()
设置, 并且链接了本spider实例对应的Crawler
对象.
Crawler包含了很多项目中的组件,作为单一的入口点 (例如插件,中间件,信号管理器等). 请查看 Crawler API 来了解更多.
settings
- Configuration on which this spider is been ran. This is a
Settings
instance, see the Settings topic for a detailed introduction on this subject.
logger
- Python logger created with the Spider’s
name
. You can use it to send log messages through it as described on Logging from Spiders.
from_crawler(crawler, *args, **kwargs)
- 这是Scrapy用来创建spider的类方法。
您可能不需要直接重写它,因为默认实现充当了_init_()
方法的代理,使用给定的参数args
和命名的参数kwargs
调用它。
尽管如此,这个方法在新实例中设置crawler
和settings
属性,以便以后可以在spider代码中访问它们。
-
参数:
start_requests()
该方法必须返回一个可迭代对象(iterable)。该对象包含了spider用于爬取的第一个Request。
当spider启动爬取并且未制定URL时,该方法被调用。 当指定了URL时,
make_requests_from_url()
将被调用来创建Request对象。 该方法仅仅会被Scrapy调用一次,因此您可以将其实现为生成器。该方法的默认实现是使用
start_urls
的url生成Request。如果您想要修改最初爬取某个网站的Request对象,您可以重写(override)该方法。 例如,如果您需要在启动时以POST登录某个网站,你可以这么写:
class MySpider(scrapy.Spider):
name = 'myspider'
def start_requests(self):
return [scrapy.FormRequest("http://www.example.com/login",
formdata={'user': 'john', 'pass': 'secret'},
callback=self.logged_in)]
def logged_in(self, response):
# here you would extract links to follow and return Requests for
# each of them, with another callback
pass
make_requests_from_url(url)
该方法接受一个URL并返回用于爬取的
Request
对象。 该方法在初始化request时被start_requests()
调用,也被用于转化url为request。默认未被复写(overridden)的情况下,该方法返回的Request对象中,
parse()
作为回调函数,dont_filter参数也被设置为开启。 (详情参见Request
).
parse(response)
当response没有指定回调函数时,该方法是Scrapy处理下载的response的默认方法。
parse
负责处理response并返回处理的数据以及(/或)跟进的URL。Spider
对其他的Request的回调函数也有相同的要求。参数: response (
Response
) – 用于分析的response
log(message[, level, component])
- 使用
scrapy.log.msg()
方法记录(log)message。 log中自动带上该spider的name
属性。 更多数据请参见 Logging 。 封装了通过Spiders的logger
来发送log消息的方法,并且保持了向后兼容性。 更多内容请参考 Logging from Spiders.
closed(reason)
- 当spider关闭时,该函数被调用。 该方法提供了一个替代调用signals.connect()来监听
spider_closed
信号的快捷方式。
让我们来看一个例子:
import scrapy
class MySpider(scrapy.Spider):
name = 'example.com'
allowed_domains = ['example.com']
start_urls = [
'http://www.example.com/1.html',
'http://www.example.com/2.html',
'http://www.example.com/3.html',
]
def parse(self, response):
self.logger.info('A response from %s just arrived!', response.url)
在单个回调函数中返回多个Request以及Item的例子:
import scrapy
class MySpider(scrapy.Spider):
name = 'example.com'
allowed_domains = ['example.com']
start_urls = [
'http://www.example.com/1.html',
'http://www.example.com/2.html',
'http://www.example.com/3.html',
]
def parse(self, response):
sel = scrapy.Selector(response)
for h3 in response.xpath('//h3').extract():
yield {"title": h3}
for url in response.xpath('//a/@href').extract():
yield scrapy.Request(url, callback=self.parse)
除了 start_urls
,你也可以直接使用 start_requests()
; 您也可以使用 Items 来给予数据更多的结构性(give data more structure):
import scrapy
from myproject.items import MyItem
class MySpider(scrapy.Spider):
name = 'example.com'
allowed_domains = ['example.com']
def start_requests(self):
yield scrapy.Request('http://www.example.com/1.html', self.parse)
yield scrapy.Request('http://www.example.com/2.html', self.parse)
yield scrapy.Request('http://www.example.com/3.html', self.parse)
def parse(self, response):
for h3 in response.xpath('//h3').extract():
yield MyItem(title=h3)
for url in response.xpath('//a/@href').extract():
yield scrapy.Request(url, callback=self.parse)
Spider arguments
- 可以接收修改其行为的参数。spider参数的一些常见用法是定义起始url或将爬网限制到站点的某些部分,但是它们可以用于配置spider的任何功能。
- Spider参数使用
-a
选项通过crawl
命令传递。例如:
scrapy crawl myspider -a category=electronics
在其构造函数中接收参数:
import scrapy
class MySpider(scrapy.Spider):
name = 'myspider'
def __init__(self, category=None, *args, **kwargs):
super(MySpider, self).__init__(*args, **kwargs)
self.start_urls = ['http://www.example.com/categories/%s' % category]
# ...
Spider参数也可以通过Scrapyd传递schedule.json
应用程序编程接口。参见Scrapyd文档。