scrapy框架总结

异步: 在调用发出后,可以直接返回,不管哟偶没有结果。

非阻塞:是指程序在等待调用结果时的状态,指在不能立刻得到结果之前,该调用不会阻塞当前线程

流程:1.首先Spiders(爬虫)将需要发送请求的url(requests)经ScrapyEngine(引擎)交给Scheduler(调度器)。

2.Scheduler(排序,入队)处理后,经ScrapyEngine,DownloaderMiddlewares(可选,主要有User_Agent, Proxy代理)交给Downloader。

3.Downloader向互联网发送请求,并接收下载响应(response)。将响应(response)经ScrapyEngine,SpiderMiddlewares(可选)交给Spiders。

4.Spiders处理response,提取数据并将数据经ScrapyEngine交给ItemPipeline保存(可以是本地,可以是数据库)。

5.提取url重新经ScrapyEngine交给Scheduler进行下一个循环。直到没有Url请求程序停止结束。

文件作用:

Scrapy Engine(引擎): 负责Spider、ItemPipeline、Downloader、Scheduler中间的通讯,信号、数据传递等。

Scheduler(调度器): 它负责接受引擎发送过来的Request请求,并按照一定的方式进行整理排列,入队,当引擎需要时,交还给引擎。

Downloader(下载器):负责下载Scrapy Engine(引擎)发送的所有Requests请求,并将其获取到的Responses交还给Scrapy Engine(引擎),由引擎交给Spider来处理,

Spider(爬虫):它负责处理所有Responses,从中分析提取数据,获取Item字段需要的数据,并将需要跟进的URL提交给引擎,再次进入Scheduler(调度器),

Item Pipeline(管道):它负责处理Spider中获取到的Item,并进行进行后期处理(详细分析、过滤、存储等)的地方.

Downloader Middlewares(下载中间件):可以自定义扩展下载功能的组件(代理、cokies等)。

Spider Middlewares(Spider中间件):可以自定扩展和操作引擎和Spider中间通信的功能组件

scrapy框架的使用:

    1:先创建目录:scrapy  startproject 爬虫名称

     2:创建爬虫文件: scrapy genspider 爬虫名字 域名

    3 运行  scrapy crawl 爬虫文件名称

     response.url得到请求的url

    response.text得到响应的字符串内容

    response.status得到响应状态码

    response.headers得到响应头部

在scrapy框架里可以直接使用xpath 和 css 

response.xpath():里面写xpath路径 得到的都是selector对象 需要通过extract()提取

response.css(): 里面写选择器, 选择器::text获取属性 , ::attr(属性) 得到的也都是selector对象,也需要extract去提取

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 本主题主要是scrapy入门,包含内容如下:  1. Scrapy框架环境搭建;  2. 理解scrapy框架结...
    杨强AT南京阅读 5,241评论 0 10
  • 前言 爬虫就是请求网站并提取数据的自动化程序,其中请求,提取,自动化是爬虫的关键。Python作为一款出色的胶水语...
    王奥OX阅读 8,798评论 1 8
  • 王爱玲洛阳焦点中级一期第235天分享 昨天晚上跟朋友逛街,买了两件短袖。其中一件肩部稍微有些紧,因为颜色很喜欢,在...
    尘心细语阅读 3,392评论 0 6
  • 《21天韩语无师自通》、《21天java从入门到精通》、《21天养成一好习惯》每次看到这样的名字我都想说去它的二十...
    68bed5e7a503阅读 3,273评论 7 6
  • 1 如果一个人内心最终的眷恋都已经凋谢,那么只能黯然离去,留一颗未冷却的心。 人不在,心还在。 我的心还在,只是没...
    邬小悲阅读 1,703评论 0 0