关于scrapy爬虫使用的一些小经验和注意事项

1 . 图片下载的设置

class ClawernameSpider(scrapy.Spider):
    # 定制化设置
    custom_settings = {
        'LOG_LEVEL': 'DEBUG',  # Log等级,默认是最低级别debug
        'ROBOTSTXT_OBEY': False,  # default Obey robots.txt rules
        'DOWNLOAD_DELAY': 0,  # 下载延时,默认是0
        'COOKIES_ENABLED': False,  # 默认enable,爬取登录后数据时需要启用
        'DOWNLOAD_TIMEOUT': 25,  # 下载超时,既可以是爬虫全局统一控制,也可以在具体请求中填入到Request.meta中,    Request.meta['download_timeout']
        'RETRY_TIMES': 8,
        # ………………

        'IMAGES_STORE': r'E:\scrapyFashionbeansPic\images',  # 爬虫下载图片存储位置,没有则新建,已经存在的图片不会再下载
        'IMAGES_EXPIRES': 90,  # 图片过期时间,单位为天
        'IMAGES_MIN_HEIGHT': 100,  # 图片最小尺寸(高度),低于这个高度的图片不会下载
        'IMAGES_MIN_WIDTH': 100,  # 图片最小尺寸(宽度),低于这个宽度的图片不会下载
        'DOWNLOADER_MIDDLEWARES': {  # 下载中间件设置,后面的数字(范围0~999)为优先级,越小越先处理
            'scrapyFashionbeans.middlewares.HeadersMiddleware': 100,
            'scrapyFashionbeans.middlewares.ProxiesMiddleware': 200,
            'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': None,
        },

        # ………………
    }

2. 在Request中设置flag,针对性处理每个request

在构造Request时,增加flags这个参数

def start_requests(self):
    for each in keyLst:
       yield scrapy.Request(
            url = f'https://www.amazon.com/s/ref=nb_sb_noss?url=search-alias%3Daps&field-keywords={quote(each)}',
            meta = {'key': each, 'dont_redirect': True},
            callback = self.parse,
            errback = self.error,
            # 在request中埋入flag,在经过中间件时,可以以此为判断依据,针对性处理每条Request
            flags = [1]           
        )

使用在下载中间件的示例:

# 在下载中间件中,代理处理部分
# 当Request的flag[0]设置为1时,不添加代理IP
class ProxiesMiddleware(object):
    def __init__(self):
        runTimer = datetime.datetime.now()
        print(f"instance ProxiesMiddleware, startProxyTimer, runTimer:  {runTimer}.")
        timerUpdateProxies()
        print(f"instance ProxiesMiddleware, startProxyTimer, runTimer:{runTimer}.")

    def process_request(self, request, spider):
        print('Using ProxiesMiddleware!')

        # 在这里识别 request.url是不是指列表页,从而不启用代理。
        # 或者在发送列表页request时,将某个栏位(flags可用,类型是列表)置上标记,在这个地方检察这个标记,从而决定要不要启动代理。
        if request.flags:
            if request.flags[0] == 1:   # flags[0] 如果为1表示这条request并不需要添加代理
                return None             # 不加proxy, 直接返回, 给其他中间件继续处理request

        if not request.meta.get('proxyFlag'):
            request.meta['proxy']='http://xxxxxxxxxxxx:xxxxxxxxxxxx@proxy.abuyun.com:9020'

3. 跟进一个网页中的超链接

for page in range(1 ,pageNum + 1):
    # 从本网页实现页面跟进
    # href是从网页中拿到的超链接地址
    yield response.follow(
        url = re.sub(r'page=\d+', f'page={page}', href, count = 1),
        meta = {'dont_redirect':True , 'key':response.meta['key']},
        callback = self.galance,
        errback = self.error
    )  

4. 利用redis进行网页去重,做分布式爬虫的基础

class ClawernameSpider(scrapy.Spider):
    # 定制化设置
    custom_settings = {
        'LOG_LEVEL': 'DEBUG',  # Log等级,默认是最低级别debug
        # ………………
        # 利用redis对网页去重的设置项
        'DUPEFILTER_CLASS': "scrapy_redis.dupefilter.RFPDupeFilter",
        'SCHEDULER': "scrapy_redis.scheduler.Scheduler",
        'SCHEDULER_PERSIST': False,  # Don't cleanup redis queues, allows to pause/resume crawls.

        # ………………
    }

运行redis-cli.exe,然后执行flushdb *清除掉redis中的记录,以免之前没爬取成功的页面,在下次爬取时被忽略掉了。
keys *
flushdb
OK

补充说明:运行redis-cli.exe,执行key *可以看到这个数据库中所有表的名字。

5. scrapy定时关闭

假设有如下需求:指定一个爬虫,每天运行一次,但是需要保证这个爬虫的运行时间不能超过24小时。
对于scrapy框架来说,非常简单,只需要配置一个扩展就好了,打开settings.py,添加一个配置项:

CLOSESPIDER_TIMEOUT = 86400   # 24小时*3600秒 = 86400
  • CLOSESPIDER_TIMEOUT说明:
    CLOSESPIDER_TIMEOUT 的默认值: 0
    一个整数值,单位为秒。如果一个spider在指定的秒数后仍在运行, 它将以 closespider_timeout 的原因被自动关闭。 如果值设置为0(或者没有设置),spiders不会因为超时而关闭。
  • 相关的扩展还有很多,比如可以配置获得了一定数量的item则退出等等,详见文档扩展(Extensions):
    http://scrapy-chs.readthedocs.io/zh_CN/0.24/topics/extensions.html
CLOSESPIDER_TIMEOUT(秒):在指定时间过后,就终止爬虫程序.
CLOSESPIDER_ITEMCOUNT:抓取了指定数目的Item之后,就终止爬虫程序.
CLOSESPIDER_PAGECOUNT:在收到了指定数目的响应之后,就终止爬虫程序.
CLOSESPIDER_ERRORCOUNT:在发生了指定数目的错误之后,就终止爬虫程序.

6. scrapy最大爬取深度depth_limit

  • 有时候,有些奇怪的页面会一直循环跳转,导致爬虫一直不能结束,所以在爬取过程中,需要指定最大深度。
  • 但是还有个非常重要的点需要注意:就是retry_times 和 depth_limit之间的关系。
  • 因为在retry的过程中,会累计 depth,当超过 depth_limit 时,这个页面就会被抛弃掉。(注意,不是指爬虫结束)

7. 关于参数 dont_redirect

  • dont_redirect:指这个请求是否允许重定向。默认值为:False,允许重定向

导致网页重定向的原因,一般有如下几个:

第一,网页自身就是一个跳转页面。
第二,这个网页分为电脑版和移动版,站点会根据用户的访问数据(user-agent)来决定返回给用户哪种网页。

# 使用示例:
# https://www.1688.com/
# user-agent = "MQQBrowser/26 Mozilla/5.0 (Linux; U; Android 2.3.7; zh-cn; MB200 Build/GRJ22; CyanogenMod-7) AppleWebKit/533.1 (KHTML, like Gecko) Version/4.0 Mobile Safari/533.1"

yield Request(
    url = "https://www.1688.com/",
    # 默认为False
    meta={},
    # 如果将这个参数置为True,表示不允许网页重定向,这样如果网页发生了跳转,那么网页爬不下来
    # meta = {'dont_redirect': True},
    callback = self.parseCategoryIndex,
    errback = self.error
)
  • 默认值:False,允许重定向
  • 特别注意:一般情况下,我们都会把这个参数置为True,不允许跳转。因为在一开始,就必须明确你需要解析的页面的结构。后面的解析方法也是针对目标页面的,如果可以随意重定向,那后面的解析也就变得灵活,并且无法精准预测。

8. 关于参数 dont_filter

  • dont_filter:指这个请求是否允许过滤。默认值为:False,参与过滤。
  • 因为在scrapy中,自带url过滤功能,如果 dont_filter == False,表明这个Request (不仅仅指url)只会被使用一次。当然,如果发生了retry,是不算的。
  • 唯一需要注意的是:如果有些Request会出现重复多次访问,需要在Request中,将这个参数置为 True。

本文摘抄自:
https://blog.csdn.net/zwq912318834/article/details/78665851
好好学习,多多益善。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,445评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,889评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,047评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,760评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,745评论 5 367
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,638评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,011评论 3 398
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,669评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,923评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,655评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,740评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,406评论 4 320
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,995评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,961评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,197评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,023评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,483评论 2 342