Scrapy框架总结

文件目录说明:

scrapy.cfg: 项目的配置文件

tutorial/: 该项目的python模块。之后您将在此加入代码。

tutorial/items.py: 项目中的item文件.

tutorial/pipelines.py: 项目中的pipelines文件.

tutorial/settings.py: 项目的设置文件.

tutorial/spiders/: 放置spider代码的目录.

定义item

Item 是保存爬取到的数据的容器;其使用方法和python字典类似, 并且提供了额外保护机制来避免拼写错误导致的未定义字段错误。

示例代码:

import scrapy

class DmozItem(scrapy.Item):

    title = scrapy.Field()

    link = scrapy.Field()

    desc = scrapy.Field()

定义spider

name: 用于区别Spider。 该名字必须是唯一的,您不可以为不同的Spider设定相同的名字。

start_urls: 包含了Spider在启动时进行爬取的url列表。 因此,第一个被获取到的页面将是其中之一。 后续的URL则从初始的URL获取到的数据中提取。

parse() :是spider的一个方法。 被调用时,每个初始URL完成下载后生成的 Response 对象将会作为唯一的参数传递给该函数。 该方法负责解析返回的数据(response data),提取数据(生成item)以及生成需要进一步处理的URL的 Request 对象。

示例代码:

import scrapy

class DmozSpider(scrapy.Spider):

    name = "dmoz"

    allowed_domains = ["dmoz.org"]

    start_urls = [

        "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/",

        "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/"

    ]

    def parse(self, response):

        filename = response.url.split("/")[-2]

        with open(filename, 'wb') as f:

            f.write(response.body)

Scrapy提供了一个 item pipeline ,来下载属于某个特定项目的图片,比如,当你抓取产品时,也想把它们的图片下载到本地。

这条管道,被称作图片管道,在 ImagesPipeline 类中实现,提供了一个方便并具有额外特性的方法,来下载并本地存储图片

使用图片管道

示例代码:

import scrapy

from scrapy.contrib.pipeline.images import ImagesPipeline

from scrapy.exceptions import DropItem

class MyImagesPipeline(ImagesPipeline):

    def get_media_requests(self, item, info):

        for image_url in item['image_urls']:

            yield scrapy.Request(image_url)

    def item_completed(self, results, item, info):

        image_paths = [x['path'] for ok, x in results if ok]

        if not image_paths:

            raise DropItem("Item contains no images")

        item['image_paths'] = image_paths

        return item

配置修改

开启图片管道

ITEM_PIPELINES = {'scrapy.contrib.pipeline.images.ImagesPipeline': 1}

指定路径

IMAGES_STORE = '/path/to/valid/dir'

main文件编写

当我们使用scrapy编写一个爬虫工程后,想要对工程进行断点调试,和内部运行一般我们会定义一个main.py文件,

以运行jobbole为例,编写main.py 文件代码。

from scrapy.cmdline import execute

import sys

import os

#设置工程目录

sys.path.append(os.path.dirname(os.path.abspath(__file__)))

#启动命令

execute(['scrapy','crawl','jobbole'])

下载器中间件是介于Scrapy的request/response处理的钩子框架。 是用于全局修改Scrapy request和response的一个轻量、底层的系统。

激活下载中间件

DOWNLOADER_MIDDLEWARES = {

    'myproject.middlewares.CustomDownloaderMiddleware': 543,

}

爬虫settings.py文件

 # -*- coding: utf-8 -*-

# Scrapy settings for tutorial project

#

# For simplicitv, this file contains only settings considered important or

# commonly used. You can find more settings consulting the documentation:

#

#    https://doc.scrapy.org/en/latest/topics/settings.html

#    https://doc.scrapy.org/en/latest/topics/downloader-middleware.html

#    https://doc.scrapy.org/en/latest/topics/spider-middleware.html

BOT_NAME = 'tutorial'#爬虫项目的名称

SPIDER_MODULES = ['tutorial.spiders']#爬虫文件目录

NEWSPIDER_MODULE = 'tutorial.spiders'

# Crawl responsibly by identifying yourself (and your website) on the user-agent

#用户的代理,设置用户代理的目的是为了模拟浏览器发起请求

#USER_AGENT = 'tutorial (+http://www.yourdomain.com)'

# Obey robots.txt rules

#是否要遵守robot协议 默认为true表示遵守 通常设置为false

ROBOTSTXT_OBEY = True

# Configure maximum concurrent requests performed by Scrapy (default: 16)

#下载器允许发起请求的最大并发数  默认情况下是16

#CONCURRENT_REQUESTS = 32

# Configure a delay for requests for the same website (default: 0)

# See https://doc.scrapy.org/en/latest/topics/settings.html#download-delay

# See also autothrottle settings and docs

#下载延时 同一个网站上一个请求和下一个请求之间的间隔时间

DOWNLOAD_DELAY = 3

# The download delay setting will honor only one of:

#在某一个域下  允许的最大并发请求数量默认8

#CONCURRENT_REQUESTS_PER_DOMAIN = 16

#对于单个ip下允许最大的并发请求数量 默认为0 为零表示不限制

#特殊点:如果非零  上面设置的针对于域的设置就会不再生效了

#这个时候并发的限制就会针对与ip而不会针对与网站

#特殊点:如果它非零  我们下载延时不在是针对网站了 而是针对于ip了

#CONCURRENT_REQUESTS_PER_IP = 16

# Disable cookies (enabled by default)

#针对于cookies设置一般情况下  我们不携带cookies 也是反反爬的一个手段  默认为True

#COOKIES_ENABLED = False

# Disable Telnet Console (enabled by default)

#scrapy携带的一个终端扩展插件  telent作用:它能够打印日志信息 监听爬虫的爬取状态信息

TELNETCONSOLE_ENABLED = False

# Override the default request headers:

#默认的请求头  他是一个全局的

DEFAULT_REQUEST_HEADERS = {

  # 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',

  # 'Accept-Language': 'en',

}

# Enable or disable spider middlewares

# See https://doc.scrapy.org/en/latest/topics/spider-middleware.html

#爬虫中间件  我们可以在这里做一些爬虫自定义的扩展

#SPIDER_MIDDLEWARES = {

#    'tutorial.middlewares.TutorialSpiderMiddleware': 543,

#}

# Enable or disable downloader middlewares

# See https://doc.scrapy.org/en/latest/topics/downloader-middleware.html

#下载中间件  一般自定义下载中间件可以在这里激活    后面的数字表示优先级  数字越小优先级越高

#DOWNLOADER_MIDDLEWARES = {

#    'tutorial.middlewares.TutorialDownloaderMiddleware': 543,

#}

# Enable or disable extensions

# See https://doc.scrapy.org/en/latest/topics/extensions.html

#scrapy的扩展  扩展信息

#EXTENSIONS = {

#    'scrapy.extensions.telnet.TelnetConsole': None,

#}

# Configure item pipelines

# See https://doc.scrapy.org/en/latest/topics/item-pipeline.html

#在这里激活管道文件    管道文件后面同样跟了数字表示优先级 数字越小表示优先级越高

ITEM_PIPELINES = {

}

#写入图片的保存路径

IMAGES_STORE = '/path/to/valid/dir'

#设置自动限速的扩展  弥补上面的不足  可以自动调整scrapy的下载时间  时间延时

#

# Enable and configure the AutoThrottle extension (disabled by default)

# See https://doc.scrapy.org/en/latest/topics/autothrottle.

# The initial download delay

# The maximum download delay to be set in case of high latencies

#在高延迟情况下最大的下载延迟(单位秒)

AUTOTHROTTLE_MAX_DELAY = 60

# each remote server

# Enable showing throttling stats for every response received:

#起用AutoThrottle调试(debug)模式,展示每个接收到的response。可以通过此来查看限速参数是如何实时被调整的。

AUTOTHROTTLE_DEBUG = False

# Enable and configure HTTP caching (disabled by default)

# See https://doc.scrapy.org/en/latest/topics/downloader-middleware.html#httpcache-middleware-settings

#是否启用缓存策略

HTTPCACHE_ENABLED = True

#缓存超时时间

HTTPCACHE_EXPIRATION_SECS = 0

#缓存保存路径

HTTPCACHE_DIR = 'httpcache'

#缓存忽略的Http状态码

HTTPCACHE_IGNORE_HTTP_CODES = []

# 缓存存储的插件

HTTPCACHE_STORAGE = 'scrapy.extensions.httpcache.FilesystemCacheStorage'

Linux下scrapy框架命令使用

创建一个爬虫项目:scrapy startproject 爬虫的项目名称

注意:创建爬虫文件要在spiders文件下

创建爬虫文件:scrapy genspider 爬虫文件名称 爬虫的域

运行爬虫的名称:scrapy crawl 爬虫文件名称

创建crawlspider爬虫文件:scrapy genspider –t crawl jobbole xxxxx.cn

未启动爬虫调试命令:scrapy shell 'http://www.xxxxxxx.cn/xxx/xxx'

scrapy框架安装方式:

ubuntu系统下:sudo pip3 install scrapy

如果安装不成功可尝试安装一下依赖环境

sudo apt-get install python3-dev python-pip libxml2-dev libxslt1-dev zlib1g-dev libffi-dev libssl-dev

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,222评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,455评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,720评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,568评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,696评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,879评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,028评论 3 409
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,773评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,220评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,550评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,697评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,360评论 4 332
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,002评论 3 315
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,782评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,010评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,433评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,587评论 2 350

推荐阅读更多精彩内容

  • 明天是周五,它是一个很特殊的周五,因为那一天我们将会有我们自己的第一次足球赛,和我们自己的第一次啦啦队!足球是男生...
    刘沁灵的作品阅读 503评论 5 3
  • 参加绘本讲师培训在实操演练第一本绘本故事《我的连衣裙》是我讲的的第一个绘本故事!特别喜欢这个绘本故事简单欢快的节奏...
    宛凌阅读 9,685评论 0 5
  • 啊哈哈哈哈,很好奇为什么我说第一个真正的暑假来了吧。嘻嘻,因为工作快两年了,过了两个不像暑假的暑假咯。暑假的特点是...
    譞泪阅读 417评论 0 3
  • 最深的思念,不是想得连呼吸都痛,而是连想都不敢想。 最长的等待,不是在等待他的拒绝,而是在等待自己死心。 最大的伤...
    刺猬猫阅读 365评论 0 0
  • 北京新学道金泉书院 五年级尚喻班 王嘉盛 在北京新学道金泉书院有体育馆、食堂、教学楼、操场。而同学们对操场更是情有...
    尚礼二班创作文集阅读 253评论 0 1