scrapy + scrapyd + scrapydweb + logparser + docker分布式部署

1.构建 scrapyd_logparser
cd scrapyd_logparser
docker build -t scrapyd_logparser .
2.运行 scrapyd_logparser
docker run -d -p 6800:6800 --name scrapyd_1 scrapyd_logparser
# docker run -d -p 6800:6800 -v /root/scrapyd_logparser:/code --name scrapyd_1 scrapyd_logparser
# 可以外联出文件 可以进行配置修改
3.构建 scrapydweb
cd scrapydweb
docker build -t scrapydweb .
4.运行 scrapydweb
docker run -d -p 5000:5000 -v /root/scrapydweb:/code --name scrapydweb scrapydweb
# 外链出文件 好修改配置 进行更新部署
# 修改配置
vim scrapydweb_settings_v10.py 
# 重启
docker restart scrapydweb
5.多机部署
在其他机器中 部署 文件 执行 1,2 步
同时在 scrapydweb 的配置文件 添加在 新主机的ip

# 以下添加
SCRAPYD_SERVERS = [
    '192.168.5.131:6800',
    '192.168.5.131:6805',
    # 'username:password@localhost:6801#group',
    # ('username', 'password', 'localhost', '6801', 'group'),
]

源码: https://github.com/libaibuaidufu/scrapyd_web_log
: 可以自己查看 一下 scrapydweb 配置文件 修改,和 scrapyd 配置文件修改

参考:

  1. scrapydweb
  2. logparser
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 之前用scrapy爬取了知乎用户数据,由于数据量很大,便考虑采取分布式提升爬取效率,便有的此文。爬虫源码为http...
    最好时刻阅读 1,957评论 0 0
  • 来源:https://juejin.im/entry/5b14d2a2e51d4506db4e81ff 我们使用了...
    Aedda阅读 967评论 0 2
  • 阿木是一个网络写手。 为了一日三餐,他每天都得呆在电脑前十来个小时,噼里啪啦地敲击键盘,写着一篇又一篇的小白文。 ...
    3e2271b99ca3阅读 797评论 1 3
  • �从前的我是别人眼中羡慕的角色,也是别人可以在他们的谈论中出现的话题人物。那时,我不太懂为什么别人会关注自己,总是...
    瀀芽阅读 685评论 0 0
  • 随着学习论这堂课的结束,我们班的各个沙龙也开始行动了起来,我毫不犹豫的选择了大学生恋爱心理学这一沙龙。那不仅是因为...
    周际烊阅读 294评论 0 0