【爬虫】坐稳,发车了 - Python抓取妹子图

环境:windows7 + python2.7
相关库:lxml + json + urllib
爬取的网站地址:http://www.mzitu.com/ (。。。捂脸)
本人是社会主义好青年,本次抓取只将所有图片的原始地址抓到后保存为json文件,并不下载图片!
好了开始吧

首先需要一个可以抓取页面的函数

#获取网页
def getHtml(url):
    res = urllib.urlopen(url)
    html = res.read().encode('utf8')
    return html

打开网页即可在首页下方看到所有页面的数,最大值就是我们所需要的


Paste_Image.png

审查元素发现这个值放在一个a标签下,要拿到这个页面数值,我们使用xpath解析网页

#获取一共有多少页专题
def getAllPages(url):
    html = etree.HTML(getHtml(url))
    pages = html.xpath('/html/body/div[2]/div[1]/div[2]/nav/div/a[4]/text()')
    pages = int(pages[0])
    return pages

使用审查元素查看网页代码可以发现,每一个页面有多个专题,这些专题存放在id值为pins的ul列表里,每一个li标签存放一个专题


Paste_Image.png

想要得到每个专题中所有的图片我们需要获取每个专题的名称和链接,使用代码

#根据传进来的页面地址获取当页所有专题的链接和名称
def everyPage(page):
    url = 'http://www.mzitu.com/page/%d'%page
    html = etree.HTML(getHtml(url))
    pins_list = html.xpath('//*[@id="pins"]/li') #获取每个页面所有专题xpath列表
    for pins in pins_list:
        mkdirs = pins.xpath('a/@href') #专题链接
        mkdirs_name = pins.xpath('a/img/@alt') #专题名称

得到专题的链接之后我们进入专题

Paste_Image.png

可以发现每个妹子所拥有的图片数量不一致,且每一个页面只有一张图。多浏览几张图片,可以看出专题内的图片很有规律,第二张的页面地址是这样的http://www.mzitu.com/86102/2,第三张的页面地址http://www.mzitu.com/86102/3,所以我们只要得出这个专题一共有多少页面就能知道有多少张图和每张图所存放的地址了。

#获取每个专题所有图片的地址
def everySemImgUrls(sem_name,url):
    html = etree.HTML(getHtml(url))
    images = html.xpath('//div[@class="pagenavi"]/a[last()-1]/span/text()') #每个专题图片数量
    mmpags = [url+'/'+str(x) for x in range(1,int(images[0])+1)] #生成图片页面列表

拿到了每张图所在的页面地址,那么就剩下获取图片的原始地址了


Paste_Image.png

同样使用xpath

#获取单个页面下的图片地址
def getImageUrl(url):
    html = etree.HTML(getHtml(url))
    src = html.xpath('//div[@class="main-image"]/p/a/img/@src')
    src = src[0]
    return src #返回每张图片的地址

最后就是保存到json文件
所有代码如下

#-*- coding:utf-8 -*-
import urllib
import threadpool
from lxml import etree
import json

#获取网页
def getHtml(url):
    res = urllib.urlopen(url)
    html = res.read().encode('utf8')
    return html

#获取一共有多少页专题
def getAllPages(url):
    html = etree.HTML(getHtml(url))
    pages = html.xpath('/html/body/div[2]/div[1]/div[2]/nav/div/a[4]/text()')
    pages = int(pages[0])
    return pages

#获取单个页面下的图片地址
def getImageUrl(url):
    html = etree.HTML(getHtml(url))
    src = html.xpath('//div[@class="main-image"]/p/a/img/@src')
    try:
        src = src[0]
    except IndexError,e:
        print e
        print src
    return src #返回每张图片的地址

#获取每个专题所有图片的地址
def everySemImgUrls(sem_name,url):
    html = etree.HTML(getHtml(url))
    images = html.xpath('//div[@class="pagenavi"]/a[last()-1]/span/text()') #每个专题图片数量
    mmpags = [url+'/'+str(x) for x in range(1,int(images[0])+1)] #生成图片页面列表
    sem_image = []
    for jpgUrl in mmpags:
        imgUrl = getImageUrl(jpgUrl)
        sem_image.append(imgUrl)
    pageMMurls = {}
    pageMMurls[sem_name] = {}
    pageMMurls[sem_name]['sem_url'] = url
    pageMMurls[sem_name]['sem_images'] = sem_image
    readed = {}
    try:
        readed = json.load(open('mzitu.json','r'))
    except Exception,e:
        pass
    with open('mzitu.json','w') as f:
        readed[sem_name] = pageMMurls[sem_name]
        json.dump(readed,f,sort_keys=True,indent=4,separators=(',',': '),encoding="utf8",ensure_ascii=False)
    print sem_name+'  -'+images[0]+'-张'

#获取一个页面中所有专题名及连接
def everyPage(page):
    url = 'http://www.mzitu.com/page/%d'%page
    html = etree.HTML(getHtml(url))
    pins_list = html.xpath('//*[@id="pins"]/li') #获取每个页面所有专题xpath列表
    print '本页共有专题--%d--个'%pins_list.__len__()
    for pins in pins_list:
        mkdirs = pins.xpath('a/@href') #专题链接
        mkdirs_name = pins.xpath('a/img/@alt') #专题名称
        everySemImgUrls(mkdirs_name[0],mkdirs[0])

def main():
    pages = getAllPages('http://www.mzitu.com/') #从主页获取所有页面数量
    print '共发现--%d--页专题'%pages
    for page in range(1,pages+1):
        print '准备下载第--%d--页'%page
        everyPageDict = everyPage(page)

if __name__ == '__main__':
    main()
总结:

1、本次爬虫为单线程,速度慢且偶尔有中途停车现象。下次来玩儿再来优化

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,589评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,615评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,933评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,976评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,999评论 6 393
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,775评论 1 307
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,474评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,359评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,854评论 1 317
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,007评论 3 338
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,146评论 1 351
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,826评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,484评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,029评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,153评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,420评论 3 373
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,107评论 2 356

推荐阅读更多精彩内容