Scrapy+redis分布式爬虫(五、爬虫与反爬策略)

常见反爬虫和对应策略

更换user-agent

更换user-agent是一种很常用的爬虫伪装需求,这里我们可以使用middleware进行设置。
先在settings中设置一个downloader_middleware:

......
USER_AGENT = "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36"
DOWNLOADER_MIDDLEWARES = {
    'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware':2
}
......
    UserAgentMiddleware是scrapy自带的组件,它会在settings中寻找USER_AGENT,并全局修改替换每一个request中的user-agent, 在settings中默认是注释掉的, 取消掉注释便可使用生效。
    此外,我们还可以对这个middleware进行改写,使其实现随机选取user-agent的功能,在这样做之前前,建议先将默认的UserAgent的Middleware置为None:
......

DOWNLOADER_MIDDLEWARES = {
    'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware':None
}
user_agent_list = [
"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36",
......
]
......
    之后, 我们在middleware这个文件中重写一个middleware, 实现这些功能:
......
class RandomUserAgentMiddlware(object):
    def __int__(self,crawler):
        super(RandomUserAgentMiddleware,self).__int__()
        self.user_agent_list = crawler.settings.get("user-agent-list")

    @classmethod
    def from_crawler(cls,crawler):
        return cls(crawler)  
        
    def process_request(self,request,spider):
        request.headers.setdefault('user-agent',random())
......

关于随机切换, 这里我们也可以考虑使用fake-useragent这个开源的包来实现:

from fake_useragent import UserAgent
......
class RandomUserAgentMiddlware(object):
    def __int__(self,crawler):
        super(RandomUserAgentMiddleware,self).__int__()
        self.ua = UserAgent()

    @classmethod
    def from_crawler(cls,crawler):
        return cls(crawler)
        
    def process_request(self,request,spider):
        request.headers.setdefault('User-Agent',self.ua.random)
        request.meta["proxy"] = "https://:"
......
关于cookie

cookie是一种常用的反爬手段,有的网站会将给用户的访问记录存储到用户的cookie中,等下次该用户访问时,会查验该cookie作为判断其是否为爬虫的依据,对于这种方式,我们可以将爬虫程序禁止存储cookie即可,例如在scrapy中,禁用cookie可以通过在settings.py中进行如下设置:

COOKIES_ENABLED = True
关于IP代理池

首先,在settings中编写代理:

IPPOOL=[
    {"ipaddr":"219.228.126.86:8123"},
    {"ipaddr":"61.152.81.193:9100"},
    {"ipaddr":"218.82.33.225:53853"},
    {"ipaddr":"223.167.190.17:42789"}
]

配置中间件文件:

import random
from scrapy import signals
from myproxies.settings import IPPOOL
class MyproxiesSpiderMiddleware(object):
      def __init__(self,ip=''):
          self.ip=ip       
      def process_request(self, request, spider):
          thisip=random.choice(IPPOOL)
          print("this is ip:"+thisip["ipaddr"])
          request.meta["proxy"]="http://"+thisip["ipaddr"]

在settings中设置downloader_middlewares:

DOWNLOADER_MIDDLEWARES = {
     'myproxies.middlewares.MyproxiesSpiderMiddleware':125
}

四、selenium不加载图片的设置

......
chrome_opt = webdriver.ChromeOptions()
prefs = {"profile.managed_default_content_sttings.images":2}
chrome_opt.add_experimental_option("prefs",prefs)
browser = webdriver.Chrome(executable_path="",chrome_options = chrome_opt)
......

这样对于一些不需要加载图片的任务, 可以减少很多对象的请求, 可以加速页面的加载速度。

五、无界面浏览器phantomjs的使用

对于我们的一些无界面服务器Centos,ubuntu,可以使用phantomjs。在selenium中它的使用和chrome基本相同。

六、将selenium集成到scrapy中

我们可以考虑将selenium集成到scrapy中, 专门用于解决某些动态页面的加载:

#spiders/XXX.py
......
from selenium import webdriver
from scrapy.xlib.pydispatch import dispatcher
from scrapy import signals

class XXXSpider(object):
    def __init__(self):
        self.browser = webdriver,Chrome(executable_path="")
      super(XXXSpider,self).__init__()
      #通过信号量追踪,将信号spider_closed与函数spider_closed进行绑定
      dispatcher.connect(self.spider_closed,signals.spider_closed)
    def spider_closed(self,spider):
        print("spider closed")
        self.browser.quit()
......

#middlewares.py
from scrapy.http import HtmlResponse
......
class JSPageMiddleware(object):
  def process_request(self,request,spider):
    if spider.name == "<爬虫名>":
      spider.browser.get(request.url)
      import time
      time.sleep(3)
    return HtmlResponse(url=spider.browser.current_url,body=spider.browser.page_source,encoding="utf-8",request=request)
......

middlewares处理过的requests接下来都会被发给downloader进行页面下载, 由于我们的selenium已经进行了页面下载,所以不需要再发给downloader了, 我们直接用selenium分析页面的结果用来构建一个response, 返回给spider。

七、无界面运行chrome的方法

首先安装一个包, 当然这个包只能在linux中使用:

pip install pyvirtualdisplay

我们在脚本中添加相关代码:

#middlewares
from pyvirtualdisplay import Display
display = Display(visible=0,size=(800,600))
display.start()

browser = webdriver.Chrome()
......

八、其它方案

splinter、scrapy-splash、selenium-grid

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,402评论 6 499
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,377评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,483评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,165评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,176评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,146评论 1 297
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,032评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,896评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,311评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,536评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,696评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,413评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,008评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,659评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,815评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,698评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,592评论 2 353