爬虫之 Scrapy框架

1.框架架构图:

2.各文件功能

scrapy.cfg   项目的配置文件

items.py    定义了Item数据结构,所有Item的定义都可以放在这里

pipelines.py   定义了Item Pipeline的实现

settings.py   定义了项目的全局配置

middlewares.py   定义了spider 中间件和downloader中间件

spiders   每一个爬虫的实现,每一个爬虫对应一个文件

3.创建项目

scrapy startproject 项目名

4.创建爬虫

cd 项目名称

scrapy genspider spider名称 网站域名

创建后会生成一个包含文件名的spider类,其中有三个属性和一个方法

三个属性:

name   每个项目唯一的名字

allow_domains   允许爬取的域名

start_urls   在启动时爬取的URL列表

一个方法:

parse() 默认情况下,被调用 start_urls 里面的链接 构成的请求完成下载执行后,返回的响应就会作为唯一的参数传递给这个函数。这个方法是负责解析返回的响应、提取数据或进一步生成要处理的请求

5.创建Item

Item是保存爬虫的容器,他的使用方法和字典比较类似。

Item需要继承scrapy.Item类且定义类型是scrapy.Field字段。

能获取到的内容有比如有text、author、tags

import scrapy

class spider名Item(scrapy.Item):

    text=scrapy.Field()

    author=scrapy.Field()

    tags=scrapy.Field()


6.解析response

在scrapy.Item类中可以直接对response变量包含的内容进行解析

divclass名.css('.text')   带有此标签的节点

divclass名.css('.text::text')   获取正文内容

divclass名.css('.text').extract()   获取整个列表

divclass名.css('.text::text').extract()  获取整个列表的内容

divclass名.css('.text::text').extract_first()  获取第一个

7.使用Item

对新创建的spider进行改写

import scrapy

from 项目名.item import spider名Item

class spider名Spider(scrapy.Spider):

    name = '爬虫名'

    allow_domains = ["quotes.toscrape.com"]

    start_urls = ["http://quotes.toscrape.com"]

    def parse(self,response):

        r = response.css('.quote')

        for i in r:

            item = spider名Item()

            item['text']=i.css['.text::text'].extract_first()

            item['author']=i.css['.author::text'].extract_first()

            item['tags']=i.css('.tags .tag::text').extract_first()

            yield item

8.后续request

前面讲了初始页面的抓取,现在讲解之后的页面怎么抓取

class spider名Spider(scrapy.Spider):

    name = '爬虫名'

    allow_domains = ["quotes.toscrape.com"]

    start_urls = ["http://quotes.toscrape.com"]

    def parse(self,response):

        r = response.css('.quote')

        for i in r:

            item = spider名Item()

            item['text']=i.css['.text::text'].extract_first()

            item['author']=i.css['.author::text'].extract_first()

            item['tags']=i.css('.tags .tag::text').extract_first()

            yield item

        next_page=response.css('.pager .next a::attr("href")').extract_first()

        url=response.urljoin(next_page)

        yield scrapy.Request(url=url,callback=self.parse) 

     # url是请求链接,callback是回调函数,当指定了回调函数的请求完成之后,获取到响应,引擎将把这个响应作为参数传递给这个回调函数,回调函数将进行解析或生成下一个请求。

9.运行

scrapy   crawl   spider名

10.保存(不存在数据库,保存本机电脑!)

#保存到JSON文件

scrapy  crawl  spider名  -o  spider名.json  # 输入

# 输出

scrapy crawl spider名 -o spider名.jl

scrapy crawl spider名 -o spider名.jsonlines

scrapy crawl spider名 -o spider名.csv

scrapy crawl spider名 -o spider名.pickle

scrapy crawl spider名 -o spider名.xml

scrapy crawl spider名 -o spider名.marshal

scrapy crawl spider名 -o ftp://username:password@.../spider名.xml

11.使用Item Pipeline

如果想存入到数据库或筛选有用的Item,此时需要用到我们自己定义的Item Pipeline

我们一般使用Item Pipeline做如下操作

清理HTML数据

验证爬取数据,检查爬取字段

查重并丢弃重复内容

将爬取结果保存到数据库

在pipelines.py文件中编写

import pymongo

from scrapy.exceptions import DropItem

class TextPipeline(obj):

    def __init__(self):

        self.limit=50

    def process_item(self,item,spider):

        if item['text']:

            if len(item['text']) > self.limit:

                item['text'] = item['text'][0:self.limit].rstrip()+'...'

            return item

        else:

            return DropItem('Missing Text')

class MongoPipeline(obj):

    def __init__(self,mongo_uri,mongo_db):

        self.mongo_uri=mongo_uri

        self.mongo_db=mongo_db

    @classmethod

    def from_crawler(cls,crawl):

        return cls(

            mongo_uri=crawler.settings.get('MONGO_URI'),

            mongo_db=crawler.settings.get('MONGO_DB')

        )

    def open_spider(self,spider):

        self.client = pymongo.MongoClient(self.mongo_uri)

        self.db = self.client[self.mongo_db]

    def process_item(self,item,spider):

        name = item.__class__.__name__

        self.db[name].insert(dict(item))

        return item

    def close_spider(self,spider):

        self.client.close()

在settings.py中编写

ITEM_PIPELINES = {

    '项目名.pipelines.TextPipeline':300,

    '项目名.pipelines.MongoPipeline':400,

}

MONGO_URI = 'localhost'

MONGO_DB = '项目名'

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,324评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,356评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,328评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,147评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,160评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,115评论 1 296
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,025评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,867评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,307评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,528评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,688评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,409评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,001评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,657评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,811评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,685评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,573评论 2 353

推荐阅读更多精彩内容

  • 环境搭建 在开始搭建scrapy爬虫的开发环境之前,建议已经安装Anaconda这个python发行版本,这个可以...
    lexyhp阅读 632评论 0 2
  • scrapy框架的流程图2018-11-01框架流程图 1、scrapy框架主要为个块      (1)Scrap...
    dream_seeker阅读 1,003评论 0 1
  • 本文介绍使用Scrapy爬虫框架爬取某FM音频文件。 框架介绍 Scrapy是一个为了爬取网站数据,提取结构性数据...
    暗夜夜夜行路阅读 2,631评论 0 7
  • 今天在思考一个问题,就是为什么我们会如此焦虑? 在空闲的时候,我们都很焦虑,想着如何去行动,导致被人割了一遍又一遍...
    鷇音bird阅读 113评论 0 0
  • 职业化的基础,是尊重;尊重的基础,是理解;理解的基础,是接受不同;接受不同的基础,是能够区分事实和观点。 生活中认...
    景小白阅读 185评论 0 0