scrapy命令行

  • 创建项目

    scrapy startproject myproject [project_dir]
    
  • 生成爬虫任务

    scrapy genspider mydomain mydomain.com
    
  • 查看可以生成的模板

    scrapy genspider -l
    
  • 执行爬虫任务

    scrapy crawl <spider>
    
  • 检查代码是否出错

    scrapy check [-l] <spider>
    
  • 查看项目中所有爬虫任务

    scrapy list
    
  • 快速抓取网页源代码

    scrapy fetch [--nolog] [--headers] <url>
    
  • 保存网页源代码为一个文件,并在浏览器中打开该文件(静态文件)

    scrapy view <url>
    
  • 交互模式

    scrapy shell <url>
    
  • 获取项目配置情况

    scrapy settings [options]
    
  • 通过文件名称运行爬虫

    scrapy runspider <spider_file.py>
    
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容