Scrapy + MongoDB 抓取豆瓣 Top250 入门爬虫进阶

前期工作:

安装 Python 3 之后,使用如下命令安装 Scrapy 框架

pipinstall scrapy

创建你的 Scrapy 项目 

scrapystartproject douban

到 spider 目录下生成你的爬虫

scrapy genspider spider_db movie.douban.com/top250

项目结构如下:

开始爬虫:

目标:

咱们要获取的数据有以下6个:电影排名、电影名称、电影简介、 电影评分、打分人次、电影名言。


1. 老规矩,第一步现在Items中定义我们要爬取的字段名称。

mv_no = scrapy.Field()# 电影排名

mv_name = scrapy.Field()# 电影名称

mv_introduce = scrapy.Field()# 电影简介

mv_score = scrapy.Field()# 电影评分

mv_person = scrapy.Field()# 打分人次

mv_quote = scrapy.Field()# 电影名言


2. 第二步我们在spider类中自定义我们的爬虫方法,在此之前先要分析网页。

下图可以看出,每一部电影对应的信息都在一个li标签之内,所以我们先用xpath来获取当前页面的25个li标签。

# 获取所有的li标签

lis = response.xpath('//*[@id="content"]/div/div/ol/li')

print(len(lis))

'''

25

'''


3. 成功的获取到了当前页面所有的电影信息之后,接下来我们在用xpath来获取电影排名、电影名称、电影简介、 电影评分、打分人次、电影名言等具体信息。

在这里大家可以使用xpath插件Xpath-Helper可以非常方便地获取xpath路径。最后把获取到的数据扔给pipeline即可。

forliinlis:

item['mv_no'] = li.xpath('./div/div/em/text()').get()

mv_name = li.xpath("./div/div[2]/div[1]/a/span/text()").getall()

item['mv_name'] =''.join(mv_name)

mv_introduce = li.xpath('./div/div[2]/div[2]/p[1]/text()[2]').get()

mv_introduce = mv_introduce.strip()

item['mv_introduce'] =''.join(mv_introduce)

item['mv_score'] = li.xpath("./div/div[2]/div[2]/div/span[2]/text()").get()

item['mv_person'] = li.xpath("./div/div[2]/div[2]/div/span[4]/text()").get()

item['mv_quote'] = li.xpath('./div/div[2]/div[2]/p[2]/span/text()').get()

yielditem


4. 我们先来打印一下看数据是否如我们所需。

print(item['mv_no'])

print(item['mv_name'])

print(item['mv_introduce'])

print(item['mv_score'])

print(item['mv_person'])

print(item['mv_quote'] +'\n')

可以看到第一页的25条数据已经成功获取到。


6. 接下来我们的目的很简单,把数据存入mongodb。


6.1 mongodb的下载传送门:

https://www.mongodb.com/try/download/community


直接点击download即可下载。


6.2 双击打开文件进行安装,在安装过程中,可以通过点击 "Custom(自定义)" 按钮来设置你的安装目录。


6.3 这里我选择安装在E:\MongoDB这个目录下(安装目录会影响我们后面的配置)。


6.4 这里选择直接next:


6.5 这里安装 "Install MongoDB Compass" 不勾选,否则可能要很长时间都一直在执行安装,MongoDB Compass是一个图形界面管理工具,这里不安装也是没有问题的,可以自己去下载一个图形界面管理工具,比如Robo3T。

之后稍微等待一会就安装好了。


6.6 最新mongodb无需繁琐配置,去浏览器访问:

http://127.0.0.1:27017/

出现下图

Itlooks like you are trying to access MongoDB over HTTPonthe native driver port.

证明MongoDB服务开启成功!

或者按照如下方式手动开启mongodb服务。


7. 接下来我们就需要将数据存入mongodb。进入到mongdb安装路径bin目录下,查看MongoDB 的端口号,找到这一条

 connectiong to mongodb://127.0.0.1:27017

然后到 settings.py 中写如下参数:


mongo_host='127.0.0.1'

mongo_port =27017

mongo_db_name ='douban'

mongo_db_collection ='doubanTop250'


8. 记得在pipeline中进行如下设置,导入设置的参数等。

def__init__(self):

host = mongo_host

port = mongo_port

dbname = mongo_db_name

collection = mongo_db_collection

client = pymongo.MongoClient(host=host, port = port)

db = client[dbname]

self.post = db[collection]

defprocess_item(self, item, spider):

print(item['mv_no'])

print(item['mv_name'])

print(item['mv_introduce'])

print(item['mv_score'])

print(item['mv_person'])

print(item['mv_quote'] +'\n')

data = dict(item)

self.post.insert(data)

returnitem


接下来我们试试看数据是否能导入到mongodb中,运行一下项目看一看数据库中是否存在我们想要的信息。

此时 douban 就可以找到,然后切换到这个数据库使用use douban 这个命令。

然后显示我们的数据集,名字就是我们再 setting.py 中写的 mongodbname = 'douban'和 mongodbcollection = 'doubanTop250'这两条。

为方便起见,我们后续使用mongodb的可视化工具Studio 3T来查看数据,下载传送门在此:

https://studio3t.com/

傻瓜式安装,一路next。在此不再赘述,有问题的小伙伴可自行百度一下。

下载完成之后连接方式如下:

查看数据:

搞定!


9. 25条搞定,那250条数据就很简单了。接下来我们要做的就是爬取多页数据,在这里我们使用简单的for循环即可。

forpageinrange(1,10+1):

url =f'https://movie.douban.com/top250?start={(page-1)*25}&filter='

yieldscrapy.Request(url, callback=self.parse)

再来试试250条数据的获取。

250条数据已经成功获取到mongodb中,有什么问题,欢迎各路老板留言!

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,711评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,079评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,194评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,089评论 1 286
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,197评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,306评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,338评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,119评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,541评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,846评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,014评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,694评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,322评论 3 318
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,026评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,257评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,863评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,895评论 2 351

推荐阅读更多精彩内容