scrapinghub 部署scrapy爬虫

请首先注册scrapinghub,参见以下两篇文章:

未读完以上两篇文章请勿往下看!

如果安装了第三方库,请在scrapy根目录下,引入requirements.txt

PyMySQL==0.7.11
lxml==3.7.3
pyOpenSSL==17.0.0

如果你用的是python3版本,请对scrapinghub.yml做如下修改

projects:
    default: your-project-id  # your-project-id为项目id
stacks:
    default: scrapy:1.1-py3 # 这个注意,如果是python2.7 则写成scrapy:1.1
requirements_file: requirements.txt  #第三方库时引用

2.每次修改都需要重新部署到scrapinghub:

shub deploy ProjectID
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容