首先要有一个scrapy项目
在cmd上cd 进入项目
然后在项目目录下创建 记录文件:remain/001
(remain与spider同级)
然后输入:scrapy crawl zhihu -s JOBDIR=remain/001
回车运行就行了
按ctrl+c 暂停
继续运行只要再次输入:scrapy crawl zhihu -s JOBDIR=remain/001就行了
需要重新爬取就换个文件 002就行了
首先要有一个scrapy项目
在cmd上cd 进入项目
然后在项目目录下创建 记录文件:remain/001
(remain与spider同级)
然后输入:scrapy crawl zhihu -s JOBDIR=remain/001
回车运行就行了
按ctrl+c 暂停
继续运行只要再次输入:scrapy crawl zhihu -s JOBDIR=remain/001就行了
需要重新爬取就换个文件 002就行了