scrapy下爬虫的暂定与重启

首先要有一个scrapy项目

在cmd上cd 进入项目

然后在项目目录下创建 记录文件:remain/001
(remain与spider同级)
然后输入:scrapy crawl zhihu -s JOBDIR=remain/001

回车运行就行了

按ctrl+c 暂停

继续运行只要再次输入:scrapy crawl zhihu -s JOBDIR=remain/001就行了

需要重新爬取就换个文件 002就行了

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容