Scrapy入门环境搭建

Scrapy入门环境搭建

概述

本文介绍用python3来搭建scrapy环境,实践一下最简单的scrapy用法。本文主要依照scrapy中文站教程,并结合自己学习经验,做一些补充。

环境搭建

安装Scrapy

我在mac上已经预先装好了python3环境,使用pip包管理来安装scrapy是最简便的方式:

pip3 install scrapy

安装好之后,会在系统变量中加入scrapy命令:

$ which scrapy
/Library/Frameworks/Python.framework/Versions/3.5/bin/scrapy

可见pip安装会在python3目录下导出可执行的scrapy,并且加入到系统变量中。

IDE环境

IDE我用的是pycharm,只需要在 Run→Edit Configurations中设置scrapy的脚本:
(由于scrapy默认是命令启动 scrapy crawl spiderName)

Script: /Library/Frameworks/Python.framework/Versions/3.5/bin/scrapy
Script Parameters: crawl spiderName

在pycharm中设置后每次只需要运行就可以了(当然对于固定的spiderName,暂时可以先这么用),不需要每次都打命令行了。

建立Scrapy工程

通过Scrapy中文站的教学指令 Scrapy startproject tutorial 其实能很方便的建立一个Scrapy项目。仔细查看这个项目就会发现,其实所有初始化的文件都是可以手动配置的(详情请仔细看Scrapy工程目录介绍)。
但是对于入门而言,直接使用 Scrapy startproject <projectName> 就可以了。

项目工程树结构如下:

scrapy.cfg
myproject/
    __init__.py
    items.py
    pipelines.py
    settings.py
    spiders/
        __init__.py
        spider1.py
        spider2.py
        ...

Scrapy组件使用

items.py

class MyItem(scrapy.Item):
    url = scrapy.Field()
    text = scrapy.Field()

其中自定义类继承自scrapy.Item,并添加自定义属性(类型为scrapy.Field)。
Item是用来收集scrapy抓取的数据的容器,原始抓取信息是杂乱的,我们需要自己归纳出想要的数据。
比如上面的Item类封装了url和text数据,正是我想要抓取一个页面的所有链接<a>,并获取其href属性和标签内容:

<a id=1 href="url">"text"</a>
.....
<a id=n href="url">"text"</a>

因此需要获取怎样的数据,通常要自己上一下目标网页查看源码,并自己归纳出特征。

spiders/spiderName.py

spider是单个的抓取类,其中封装好了request和response,当获取到response之后会自动调用回调函数parse(self, response)。我们就可以对response进行处理(比如http的response中可能会包含html源码)。

class Nbwxgj(scrapy.Spider):
    name = "xxblog" #spider唯一标示,用scrapy crawl dmoz来启动dmoz爬虫
    allowed_domain = ["xxblog.com"] #
    def start_requests(self): #返回一个url字符串列表,scrapy会根据这些url创建request,这个函数可以设定callback参数调用自己的回调函数,默认是调用parse
        return [scrapy.Request("http://www.xxblog.com/xxxxxxxxx")]
    def parse(self, response): 
        sel = scrapy.Selector(response)  #用scarpy.Selector提取自己要的数据
        content = sel.xpath("//pre/a")
        for c in content:
            item = ScavangerItem()
            item["text"] = c.xpath("text()").extract()
            item["url"] = c.xpath("@href").extract()
            yield item #生成器,用来和pipelines配合使用,得到数据

注意点

c.xpath("text()").extract()返回的是一个列表,其中包含的字符串元素是unicode编码的(python3默认字符串unicode编码),对于想要转换成utf-8编码方便传输,可以用:

[s.encode("utf-8") for s in c.xpath("text()").extract()]

但如果这么做,yield产生的item就无法被json化输出了,因为utf-8编码的字符串在python中属于bytes类型,bytes类型无法被json.dumps()处理。

scrapy.Selector 可以用xpath和css的选择器语法,对处理xml类文档是很强大的,而且还可以嵌套使用,因为每次返回的都是Selector对象。

通常的用法是用xpath和css筛选出标签的内容后,使用正则匹配找到自己要的信息:

x = c.xpath("text()") #xpath()函数返回的是一个Selector对象
x.xpath("...") #还能继续嵌套用
x.re("...") #最后用正则找到自己的信息,用了正则之后就不能继续用了,因为返回的不是Selector了,而是字符串。

pipelines.py

主要用来对单个spider中获取到的Item进行处理,可以把Item的数据保存成json字符串输出到文件等。

import json

class ScavangerPipeline(object):
    def __init__(self):
        self.file = open('htea.json', 'w', encoding='utf-8')
    def process_item(self, item, spider):
        #item可以用dict方法转换成字典,然后json.dumps()转换成字符串
        line = json.dumps(dict(item), ensure_ascii=False) + "\n"
        #把字符串写到文件
        self.file.write(line)
        return item
    def spider_closed(self, spider):
        self.file.close()

网上有很多教程是用codec.open来打开文件进行写的,这样的话,会把unicode编码汉字的unicide编码给写进去,打开文档看到的就是unicode编码,如果需要显示中文,则不用codec打开比较好,可以直接用with...open。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,185评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,445评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,684评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,564评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,681评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,874评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,025评论 3 408
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,761评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,217评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,545评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,694评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,351评论 4 332
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,988评论 3 315
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,778评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,007评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,427评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,580评论 2 349

推荐阅读更多精彩内容