Scrapy爬取网易云音乐和评论(三、爬取歌手)

目录:

1、Scrapy爬取网易云音乐和评论(一、思路分析)
2、Scrapy爬取网易云音乐和评论(二、Scrapy框架每个模块的作用)
3、Scrapy爬取网易云音乐和评论(三、爬取歌手)
4、Scrapy爬取网易云音乐和评论(四、关于API)
5、Scrapy爬取网易云音乐和评论(五、评论)

前面有提到,spiders目录下的文件最好不要取和项目相同的名字,如果取了也没关系,有办法,在导入模块的最前面加上这句:

from __future__ import absolute_import

因为参考的文章太多了,我也找不到出处的链接了抱歉。

一、导入:

import

仍然提醒,要记得导入items的那几个模块、

二、最基本的代码结构是这样的:

class WangYiYunCrawl(scrapy.Spider):
    name = 'WangYiYun'
    allowed_domains = ['music.163.com']
    # start_urls = 'http://music.163.com/discover/artist/cat?id={gid}&initial={initial}'
    group_ids = (1001, 1002, 1003, 2001, 2002, 2003, 6001, 6002, 6003, 7001, 7002, 7003, 4001, 4002, 4003)
    initials = [i for i in range(65,91)] + [0]
    headers = {
            "Referer":"http://music.163.com",
            "User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3067.6 Safari/537.36",
        }

    def start_requests(self):
        pass

   def parse(self,response):
        pass

最前面的那一大段前面都有说过,就不再提,这里的headers是自己写的,所以后面会调用到self.headers,只在settings.py文件里配置的这里可以省略,后面也不用用。

还剩allowed_domains。


http://cuiqingcai.com/3472.html

首先讲一下我之前一直困惑的地方:start_urls 和start_requests()可以同时存在,也可以只要一个即可。
如果你写的是start_urls,那start_requests()这个函数可以省掉,直接在parse里对它进行处理,parse这个函数,就是爬虫的主程序,平常怎么写就怎么写。

然后这个response,我们先来看代码:


start_requests()和parse()

start_requests()这个函数在返回的时候,(对了,这个scrapy里返回用的都不是return,而是yield,迭代的意思),使用Request,可以看到它大多是和requests这个库很像,它的作用也是一样,返回是一个response,它特别的在于它最后一个参数,callback的值接的是回调函数,即你要把返回的response作为参数传递给哪个函数,这个函数后面不需要括号,所以一开始我也没搞懂它是个什么。

另外,这里调用headers是因为我将headers定义在了这个class里,如果是定义在settings.py里,这里可省略。
之后的函数都是这样,如果你要将什么参数穿到下一个函数,都可以用这个,而在回调函数里必须传入这个response参数。

关于parse函数:

来自http://cuiqingcai.com/3472.html

parse这个函数的名称无所谓,但是最好带上parse(许多scrapy类型的文章都这么用,一眼看上去就知道是什么),并且保证传递的回调函数参数和这个函数名称一致即可。

三、parse函数

1、默认情况,scrapy推荐使用Xpath,因为response这个对象可以直接使用Xpath来解析数据,比如我代码中的,response对象下直接就可以用selector.xpath。

response.selector.xpath('//ul[@id="m-artist-box"]/li')

当然,除此之外,还有一种使用xpath的方法:

from scrapy.selector import Selector
selector = Selector(response.body)

关于Selector的用法,可以参考:
http://blog.csdn.net/liuweiyuxiang/article/details/71065004
但是这种方法并不是特别方便,所以直接使用response.selector.xpath的方法就好。

2、关于xpath的格式,参考中文官方文档吧,http://scrapy-chs.readthedocs.io/zh_CN/1.0/intro/tutorial.html。它跟lxml大同小异,但是还是有些区别,如图,这是四种基本的方法:

Selector()的方法

它返回的其实都是数组,xpath不用说,然后最常用的就是extract了,这个返回的列表里都是文本,而不是Selector对象

extract()

它获取的就是所有href的集合。
等价于BeautifulSoup这么用,只不过这个是获取单个的:

from bs4 import BeautifulSoup
soup = BeautifulSoup(response.content,'lxml')
href = soup.find('a')['href']

然后简单提两个xpath简单而常用用法:
@href:这种@后面加什么的,都是某个标签的某个属性,其他比如src也是这样用。
text():这个就是获取文本了。

3、item它就是那个对应某个爬虫所对应的数据库的字段,因为mongodb存储的格式类似json,在python里它就是个dict,当它是个dict就可以了。

item = WYYArtistItem()

4、使用scrapy.Request它可以传递的不只是url,它也可以传递整个item,使用meta,例如

yield scrapy.Request(url=url,meta={'item': item}, headers=self.headers, method='GET', callback=self.parse)

然后在parse()函数调用的时候,

def parse(self,response):
    item = response.meta['item']

但是并不建议这么用,因为很浪费资源。

另外,传递url的时候,除了用url,如果获得的url这段直接存进了item里,也可以直接用item['url']:

yield scrapy.Request(url=item['album_url'], headers=self.headers, method='GET', callback=self.parse_album_list)

最最最最重要的一点是,如果要存到数据库里,比如最后一个不用再Request了,那么一定要加上

yield item

这样才能存进数据库里,之前一直存不进去,一个就是前面忘了导入items,一个就是这里。

四、其他部分

后面基本都照这个模式来,因为我的顺序是:歌手--专辑页--专辑所有歌曲--歌曲,刚好每一个爬下来的url都可以直接传递给下一个函数,通过callback的方式。

这里最大的好处就是,比如歌手页,不用爬下来存一个列表,然后到了下一个函数,再遍历一遍这个列表,它每抓一个url,直接就能到下一个函数运行。

我运行的时候最大的一个问题就是‘yield item’那里,四个部分,我最后一个步骤才放‘yield item’,于是它只存最后一个,即歌曲部分,搞得我一脸懵逼,后来想想大概要执行完这个,然后再把前面的改成yield item,才能都存进去。这个是一个很严重的问题。

所以最好就是在parse就是第一个地方就存,yield item,存完再改成yield Request再执行下一个函数。我才知道之前参照的那个项目里为什么会有注释掉的'yield item'。

因为这份代码被我弃用了,所以还有一些有瑕疵的地方没改过来,代码就不发出来了。
我之前贴的那个GitHub的项目就还可以,我就是参照那个改的,基本上我讲清楚了,弄懂了就可以看得懂,就可以上手了。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,463评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,868评论 3 391
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,213评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,666评论 1 290
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,759评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,725评论 1 294
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,716评论 3 415
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,484评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,928评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,233评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,393评论 1 345
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,073评论 5 340
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,718评论 3 324
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,308评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,538评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,338评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,260评论 2 352

推荐阅读更多精彩内容