SCRAPY命令(有可能是全网最全的scrapy命令详解)

明天上班,又要爬网站,现在每天做的工作有50%的时间爬网站,40%的时间清理数据,10%写报告。两个月的自学,侧重点很重要,我把大部分经历放在了python的pandas numpy matplotlib上面,其他时间一部分放在sql身上,一部分放在了业务上,爬虫这块学的很基础,下班复习了一下scrapy 顺便总结了一下所用的命令,敢说除了官方文档我这可能是最全最容易入门的命令详解了。

1.创建一个新的项目

scrapy startproject +一个项目的名称

我们可以进入创建的项目执行相关的命令 cd +demo1

2.生成爬虫

scrapy genspider +文件名+网址


3.运行(crawl)

scrapy crawl +爬虫名称


4.check检查错误

scrapy check


5.list返回项目所有spider名称

scrapy list


6.fetch 帮助我们下载网页,将网页源代码返回(前面是一些日志,后面是源代码)


也可以加一些参数,得到headers,并不输出日志文件


7.view请求Url,把它的网页源代码保存成文件,并打开网页

在做网页测试的时候很有用,可以测试ajax内容,我们知道淘宝的页面很复杂,很多网页内容都是用ajax保存的。



很多内容没有加载,采取其他方式爬ajax内容

8.shell方法,命令行交互模式

传入了url进入了交互模式




甚至可以调用CSS选择器


9.runspider运行爬虫文件,与crawl的去区别是runspider运行的是文件的名称+拓展名


10.version 输出scrapy版本参数-v可以输出依赖库的版本


11.bench 做测试用,反映当前性能,爬虫速度

自行测试~~~



最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容