scrapy

1.scrapy startproject projectname(项目名称)

进入到spiders文件夹下创建爬虫文件

2.scrapy genspider 爬虫文件名称 网站的域

3.使用pycharm打开项目,设置虚拟环境

进入爬虫py文件zzw.py

爬虫文件继承scrapy.Spider

先要指定爬虫文件的名称(唯一)

allowed_domains:设置允许爬取的域 (可以指定多个)

start_urls:设置起始的url (可以指定多个)

根据起始url构建请求,从引擎队列里拿到请求,最终经过下载中间件进行请求的发起,然后拿到响应给爬虫文件后调用回调方法parse

parse里接收响应结果,解析数据,提取新的url

使用response.xpath可以直接根据xpath语法提取目标数据

使用yield将item数据交给管道

进入items里

items里定义要爬取的字段

pipelines.py 管道 ,在管道里面做数据的过滤和数据的持久化

将数据存到本地

注意:在使用管道之前,要先激活管道,需要在setings 文件中激活

setting.py 设置文件

将注释掉的代码打开,在这里进行管道的激活,前面表示路径,后面跟的数字,数字越小表示优先级越高,越先经过哪个类

ITEM_PIPELINES = { 'chinaz.pipelines.ChinazPipeline': 300,}

回到 pipelines.py 管道文件中

定义 open_spider 方法,是一个可选的方法,有需要的时候就去调用,当spider 方法开启的时候,会执行,并且只调用一次,表示 爬虫开始

定义 close_spider方法, 和open_spider 方法一样,只调用一次,表示,爬虫结束

mongodb 数据持久化      将数据存入到 mongodb 数据库中

return item 的作用:

在初始化中创建数据库连接  例如:self.client = pymongo.MongoClient(host,port)

获取数据库  例如: self.db = self.client[db]

@classmethod    是一个类方法,crawler:可以从crawler里面获取到爬虫的核心组件(从settings.py设置文件中获取相关参数)

def from_crawler(cls, crawler):

例如:host = crawler.settings['MONGO_HOST']

port = crawler.settings['MONGO_PORT']

return cls(host,port)

在 setting.py 设置文件中 写入mongodb数据库相关配置如下代码

MONGO_HOST = '127.0.0.1'

MONGO_PORT = 27017

MONGO_DB = 'chinaz-99'

在 item.py 定义方法 例如:  def get_collection_name(self):          return 'categroy'

回到 pipelines.py 管道文件中

col_name = self.db[item.get_collection_name()]

col_name.insert(dict(item))

定义 close_spider()方法  爬虫结束的时候会调用    self.client.close()

mysql 数据库持久化,将数据存放在mysql 数据库中

在  piplines.py  管道文件中做mysql 的数据持久化

创建一个数据库连接  self.client = pymysql.Connect(host,user,pwd,db,charset=charset)

创建游标    self.cursor = self.client.cursor()

在setting.py 设置文件中 写入mysql 数据库相关配置

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 220,295评论 6 512
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,928评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,682评论 0 357
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,209评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,237评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,965评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,586评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,487评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,016评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,136评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,271评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,948评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,619评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,139评论 0 23
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,252评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,598评论 3 375
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,267评论 2 358

推荐阅读更多精彩内容

  • Scrapy,Python开发的一个快速,高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化...
    Evtion阅读 5,854评论 12 18
  • scrapy学习笔记(有示例版) 我的博客 scrapy学习笔记1.使用scrapy1.1创建工程1.2创建爬虫模...
    陈思煜阅读 12,709评论 4 46
  • scrapy框架Scrapy是用纯Python实现一个为了爬取网站数据、提取结构性数据而编写的应用框架,用途非常广...
    糖炒栗子_01c5阅读 2,897评论 0 2
  • 创建项目 scrapy startproject + 项目名称创建爬虫文件 进入到spiders 文件夹下 创建爬...
    恬恬i阿萌妹O_o阅读 682评论 0 0
  • 痛苦的根源就是陷入自己的故事里,并当真! 解决之道:置身事外去享受这个故事!
    rong2018阅读 101评论 0 0