实现通用爬虫

创建爬虫文件的方式
scrapy genspider -t crawl 爬虫文件名 域

爬虫文件继承的类CrawlSpider

rules:里面存放的是rule的对像(元组或者列表)

Rule:自定义提取规则,提取到的url,回自动构建request对像,
设置回调函数解析相应结果,设置是否需要跟进(进一步提取url连接)
process_links:拦截rule规则提取的url,返回的是一个列表,列表存放的是link对象

LinkExtractor:是一个对象,设置提取url的规则

注意:rules中如果没有设置callback回调,follow默认为true
注意:一定不要去实现parse方法
注意:要想处理起始url的相应结果,需要重写parse_start_url方法

什么时候适合使用crawlspider?
一般网页结构比较简单,页面大多是静态页面

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容