这里是另外一个爬虫说明的返回函数和追踪链接,这次爬取的是作者的信息:
import scrapy
class AuthorSpider(scrapy.Spider):
name = 'author'
start_urls = ['http://quotes.toscrape.com/']
def parse(self,response):
#follow links to author pages
for href in response.css('.author+a::attr(href)'):
yield response.follow(href,self.parse_author)
#follow pagination links
for href in response.css('li.next a::attr(href)'):
yield response.follow(href,self.parse)
def parse_author(self,response):
def extract_with_css(query):
return response.css(query).extract_first().strip()
yield{
'name':extract_with_css('h3.author-title::text'),
'birthdate':extract_with_css('.author-born-date::text'),
'bio':extract_with_css('.author-description::text'),
}
此爬虫将会在网站的主页开始爬取,它将会追踪所有到作者页面的链接并对它调用parse_author函数,同时被标记网页的链接也会被调用parse函数,像我们之前所见到的一样。
在这我们传递response.follow作为位置函数参数使得代码更短;当然你也可以使用scrapy.Request。
parse_author函数定义了一个帮助函数来从CSS查询中提取和清洗数据信息同时以作者数据信息生成Python字典。
此爬虫演示了另外一个有趣的东西,即使许多语录都是同一个作者,我们不必担心多次访问同一作者的网页。Scrapy过滤器默认过滤在URLs中已访问的链接和相同的请求,避免由于多次访问服务器的问题而造成访问限制。但是这可以在DUPEFILTER_CLASS中被修改配置。
值得高兴的是你现在对Scrapy的追踪链接和回调函数的原理与功能有一定的理解。
作为另一个爬虫例子,它利用追踪链接的原理,查看CrawlSpider的类,对于一个通用的爬行器,它实现了一个小型规则引擎,你可以在它上面编写爬行器。
同时,一个通用的模板是从至少一个网页去创建一个数据项目,来使用传递其它数据的函数。