异步: 在调用发出后,可以直接返回,不管哟偶没有结果。
非阻塞:是指程序在等待调用结果时的状态,指在不能立刻得到结果之前,该调用不会阻塞当前线程
流程:1.首先Spiders(爬虫)将需要发送请求的url(requests)经ScrapyEngine(引擎)交给Scheduler(调度器)。
2.Scheduler(排序,入队)处理后,经ScrapyEngine,DownloaderMiddlewares(可选,主要有User_Agent, Proxy代理)交给Downloader。
3.Downloader向互联网发送请求,并接收下载响应(response)。将响应(response)经ScrapyEngine,SpiderMiddlewares(可选)交给Spiders。
4.Spiders处理response,提取数据并将数据经ScrapyEngine交给ItemPipeline保存(可以是本地,可以是数据库)。
5.提取url重新经ScrapyEngine交给Scheduler进行下一个循环。直到没有Url请求程序停止结束。
文件作用:
Scrapy Engine(引擎): 负责Spider、ItemPipeline、Downloader、Scheduler中间的通讯,信号、数据传递等。
Scheduler(调度器): 它负责接受引擎发送过来的Request请求,并按照一定的方式进行整理排列,入队,当引擎需要时,交还给引擎。
Downloader(下载器):负责下载Scrapy Engine(引擎)发送的所有Requests请求,并将其获取到的Responses交还给Scrapy Engine(引擎),由引擎交给Spider来处理,
Spider(爬虫):它负责处理所有Responses,从中分析提取数据,获取Item字段需要的数据,并将需要跟进的URL提交给引擎,再次进入Scheduler(调度器),
Item Pipeline(管道):它负责处理Spider中获取到的Item,并进行进行后期处理(详细分析、过滤、存储等)的地方.
Downloader Middlewares(下载中间件):可以自定义扩展下载功能的组件(代理、cokies等)。
Spider Middlewares(Spider中间件):可以自定扩展和操作引擎和Spider中间通信的功能组件
scrapy框架的使用:
1:先创建目录:scrapy startproject 爬虫名称
2:创建爬虫文件: scrapy genspider 爬虫名字 域名
3 运行 scrapy crawl 爬虫文件名称
response.url得到请求的url
response.text得到响应的字符串内容
response.status得到响应状态码
response.headers得到响应头部
在scrapy框架里可以直接使用xpath 和 css
response.xpath():里面写xpath路径 得到的都是selector对象 需要通过extract()提取
response.css(): 里面写选择器, 选择器::text获取属性 , ::attr(属性) 得到的也都是selector对象,也需要extract去提取