python爬虫数据提取三之xpath

1 xpath概述

   全称 XML Path Language 是一门在XML文档中 查找信息的语言 最初是用来搜寻XML文档的 但是它同样适用于HTML文档的搜索
   XPath 的选择功能十分强大,它提供了非常简洁的路径选择表达式,另外还提供了超过100个内置函数,用于字符串,数值,时间的匹配 以及节点和序列的处理
   XPath 于1999年11月16日成为W3C标准 被设计为供XSLT、XPointer、以及其它XML解析软件使用
   常用节点选择工具 Chrome插件 XPath Helper(下载crx扩展程序进行安装)

<<<
常用规则

表达式 描述

nodename 选取此节点的所有子节点
/ 从当前节点选取直接子节点
// 从当前节点选取子孙节点
. 选取当前节点
.. 选取当前节点的父节点
@ 选取属性
>>>

示例: //title[@lang='eng']

选取所有名称为title 同时属性为lang的值为eng的节点 通过Python的lxml库 利用XPath进行HTML解析

2 安装 lxml

  1. pip install lxml
  2. wheel方式安装 https://www.lfd.uci.edu/~gohlke/pythonlibs/

验证 python命令行下 import lxml 无报错信息 表示安装成功

3 实例:

  • 读取字符串
from lxml import etree #导入lxml的etree模块

text='''
<div>
<ul>
<li class="item-0"><a href="link1.html">first item</a></li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-inactive"><a href="link3.html">third item</a></li>
<li class="item-1"><a href="link4.html">fourth item</a></li>
<li class="item-0"><a href="link5.html">fifth item</a></li>
</ul>
</div>
'''
html = etree.HTML(text)#调用HTML类 初始化 构造一个XPath解析对象
result = etree.tostring(html)#输出 HTML代码
print(result.decode('utf-8'))#结果为bytes类型 用decode方法转化为str类型

<html><body><div>
<ul>
<li class="item-0"><a href="link1.html">first item</a></li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-inactive"><a href="link3.html">third item</a></li>
<li class="item-1"><a href="link4.html">fourth item</a></li>
<li class="item-0"><a href="link5.html">fifth item</a>
</li></ul>
</div>
</body></html>

  • 也可以直接读取文本文件 例如:
from lxml import etree

html = etree.parse('./test.html',etree.HTMLParser())
result = etree.tostring(html)
print(result.decode('utf-8'))

<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN" "http://www.w3.org/TR/REC-html40/loose.dtd">
<html><body><div>
<ul>
<li class="item-0"><a href="link1.html">first item</a></li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-inactive"><a href="link3.html">third item</a></li>
<li class="item-1"><a href="link4.html">fourth item</a></li>

<li class="item-0"><a href="link5.html">fifth item</a>&#13;
</li></ul>&#13;
</div></body></html>
  • 所有节点
    一般会用//开头的XPath规则来选取所有符合要求的节点,例如:
from lxml import etree

html = etree.parse('./html.html',etree.HTMLParser())
result = html.xpath('//*')
print(result)

[<Element html at 0x4c9f108>, <Element body at 0x4bb91c8>, <Element div at 0x4c68ec8>, <Element ul at 0x4c3ecc8>, <Element li at 0x4c9f148>, <Element a at 0x4c9f1c8>, <Element li at 0x4c9f208>, <Element a at 0x4c9f248>, <Element li at 0x4c9f288>, <Element a at 0x4c9f188>, <Element li at 0x4c9f2c8>, <Element a at 0x4c9f308>, <Element li at 0x4c9f348>, <Element a at 0x4c9f388>]

*代表匹配所有节点 返回一个列表 每个元素是Element类型 其后是节点名

  • 指定节点
    例如:
from lxml import etree

html = etree.parse('./html.html',etree.HTMLParser())
result = html.xpath('//li')
print(result)
print(result[0])#取出其中一个对象 利用索引值

[<Element li at 0x4c9f088>, <Element li at 0x4c9f608>, <Element li at 0x4c9f648>, <Element li at 0x4c9f688>, <Element li at 0x4c9f6c8>]
<Element li at 0x4c9f088>

  • 子节点
    通过/或者// 查找元素子节点或子孙节点
    例如: 查找li节点的所有直接子节点
from lxml import etree

html = etree.parse('./html.html',etree.HTMLParser())
result = html.xpath('//li/a')
print(result)

[<Element a at 0x4c9f588>, <Element a at 0x4c9f5c8>, <Element a at 0x4c9f1c8>, <Element a at 0x4c9f208>, <Element a at 0x4c9f248>]

ul获取所有子孙a节点

from lxml import etree

html = etree.parse('./html.html',etree.HTMLParser())
result = html.xpath('//ul//a')
print(result)

[<Element a at 0x4bb91c8>, <Element a at 0x4c9f608>, <Element a at 0x4c9f288>, <Element a at 0x4c9f348>, <Element a at 0x4c9f1c8>]

  • 父节点
    例如: 获取href属性为link4.html的a节点 获取其父节点 再获取其class属性
from lxml import etree

html = etree.parse('./html.html',etree.HTMLParser())
result = html.xpath('//a[@href="link4.html"]/../@class')
print(result)

['item-1']

也可以通过parent::* 获取其父节点

from lxml import etree

html = etree.parse('./html.html',etree.HTMLParser())
result = html.xpath('//a[@href="link4.html"]/parent::*/@class')
print(result)

['item-1']

  • 属性过滤
    选取class为item-0 的li节点
from lxml import etree

html = etree.parse('./html.html',etree.HTMLParser())
result = html.xpath('//li[@class="item-0"]')
print(result)

[<Element li at 0x4bb9848>, <Element li at 0x4bb9688>]

  • 文本获取
    用xpath中text()方法获取节点中的文本
    例如 获取li节点中的文本
from lxml import etree

html = etree.parse('./html.html',etree.HTMLParser())
result = html.xpath('//li[@class="item-0"]/text()') #此处的含义是直接获取子节点
print(result)#返回结果为 空列表

[]

两种方式 1.先选取a节点 再获取文本 2.使用//

from lxml import etree

html = etree.parse('./html.html',etree.HTMLParser())
result = html.xpath('//li[@class="item-0"]/a/text()')
print(result)#返回预期结果

['first item', 'fifth item']

from lxml import etree

html = etree.parse('./html.html',etree.HTMLParser())
result = html.xpath('//li[@class="item-0"]//text()')
print(result)

['first item', 'fifth item']

  • 属性获取
    示例 获取li节点下所有a节点的href属性
from lxml import etree

html = etree.parse('./html.html',etree.HTMLParser())
result = html.xpath('//li/a/@href')
print(result)#注意 之前学的属性过滤是限制某个属性 class=“xxxx” 这里是获取某个节点某个属性的属性值 返回形式是列表

['link1.html', 'link2.html', 'link3.html', 'link4.html', 'link5.html']

  • 属性多值匹配
    示例 有时候某个节点的某个属性有多个值
from lxml import etree
text='''
<li class="li li-first"><a href="link.html">first item</a></li>
'''
html = etree.HTML(text)
result = html.xpath('//li[@class="li"]/a/text()')
print(result)#返回结果是[]

[]

需要 contains()函数

from lxml import etree
text='''
<li class="li li-first"><a href="link.html">first item</a></li>
'''
html = etree.HTML(text)
result = html.xpath('//li[contains(@class,"li")]/a/text()')
print(result)#第一个参数传入属性名称 第二个参数传入属性值

['first item']

  • 多属性匹配
    示例 根据多个属性确定一个节点 通常需要同时匹配多个属性 可以使用and来连接
from lxml import etree
text='''
<li class="li li-first" name="item"><a href="link.html">first item</a></li>
<li class="li li-first" name="item_s"><a href="link.html">second item</a></li>
'''
html = etree.HTML(text)
result = html.xpath('//li[contains(@class,"li") and @name="item"]/a/text()')
print(result)

['first item']

4 运算符

  • 按序选择
    有时候选择某些属性 可能同时匹配了多个节点 但是想要其中某个节点,如 第一个节点或者最后一个节点,则可以利用中括号传索引的方法
from lxml import etree

html = etree.parse('./html.html',etree.HTMLParser())
result = html.xpath('//li[1]/a/text()')
print(result)#返回第一个节点 注意这里序号是从1开始的

result = html.xpath('//li[last()]/a/text()')
print(result)#返回最后一个节点

result = html.xpath('//li[position()<3]/a/text()')
print(result)#返回前两个

result = html.xpath('//li[last()-2]/a/text()')
print(result)#返回倒数第三个

['first item']
['fifth item']
['first item', 'second item']
['third item']

xpath提供了100多个函数 包括存取 数值 字符串 逻辑 节点 序列等 参考资料 http://www.w3school.com.cn/xpath/xpath_functions.asp

  • 节点轴选择
    xpath提供了很多节点轴选择方法 包括子元素,兄弟元素,父元素,祖先元素等
from lxml import etree
text='''
<div>
<ul>
<li class="item-0"><a href="link1.html"><span>first item</span></a></li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-inactive"><a href="link3.html">third item</a></li>
<li class="item-1"><a href="link4.html">fourth item</a></li>
<li class="item-0"><a href="link5.html">fifth item</a></li>
</ul>
</div>
'''
html = etree.HTML(text)

result = html.xpath('//li[1]/ancestor::*')
print(result)# 获取第一个li所有祖先节点 包括html body div ul


result = html.xpath('//li[1]/ancestor::div')
print(result)#限定条件 div

result = html.xpath('//li[1]/attribute::*')
print(result)#获取所有属性值 返回li节点所有属性值

result = html.xpath('//li[1]/child::a[@href="link1.html"]')
print(result)#获取所有直接子节点 限定条件href = link1.html

result = html.xpath('//li[1]/descendant::span')
print(result)# 获取所有子孙节点 限定span节点 不包含a节点

result1 = html.xpath('//li[1]/following::*[2]')
print(result1)#获取当前节点之后的所有节点 虽然加了* 但又加了索引选择 只获取第二个后续节点

result = html.xpath('//li[1]/following-sibling::*')
print(result)#获取当前节点之后的所有同级节点

[<Element html at 0x4f60388>, <Element body at 0x4905c48>, <Element div at 0x4f60348>, <Element ul at 0x4f60208>]
[<Element div at 0x4f60348>]
['item-0']
[<Element a at 0x4f26d48>]
[<Element span at 0x4f60208>]
[<Element a at 0x4f26d48>]
[<Element li at 0x4f60288>, <Element li at 0x4f60548>, <Element li at 0x4f60648>, <Element li at 0x4f606c8>]

4 实战:百度校花吧爬取并保存图片案例

import requests
from lxml import etree
import os

class Baidu(object):

    def __init__(self, name):
        self.url = 'http://tieba.baidu.com/f?ie=utf-8&kw={}'.format(name)
        # 使用较老版本的请求头,该浏览器不支持js
        self.headers = {
            'User-Agent': 'Mozilla/4.0 (compatible; MSIE 5.01; Windows NT 5.0) '
        }

    # 发送请求,获取响应
    def get_data(self, url):
        response = requests.get(url,headers=self.headers)
        return response.content

    # 解析列表页数据,获取列表页面帖子的标题和链接
    def parse_list_page(self, data):
        with open('baidu.html','wb') as f:
            f.write(data)
        # 实例化etree对象
        html = etree.HTML(data)
        # 使用xpath语法,提取网页数据
        node_list = html.xpath("//*[@id='thread_list']/li[@class=' j_thread_list clearfix']/div/div[2]/div[1]/div[1]/a")
        # 判断获取结果
        # print(len(node_list))
        data_list = []
        # 遍历node_list
        for node in node_list:
            temp = {}
            temp['url'] = 'http://tieba.baidu.com' + node.xpath('./@href')[0]
            temp['title'] = node.xpath('./text()')[0]
            data_list.append(temp)

        # 提取下一页的节点
        next_node = html.xpath('//*[@id="frs_list_pager"]/a[last()-1]/@href')[0]
        # print(next_node)
        # 拼接下一页的完整url
        next_url = 'http:' + next_node
        # print(next_url)
        return data_list,next_url

    def parse_detail_page(self, data_list):
        html = etree.HTML(data_list)
        # 提取详情页面的图片链接
        image_list = html.xpath("//cc/div[contains(@class,'d_post')]/img[@class='BDE_Image']/@src")
        # 返回图片节点列表
        print(image_list)
        return image_list

    # 下载图片,保存图片文件
    # 创建文件夹
    def download(self, image_list):
        if not os.path.exists('images'):
            os.makedirs('images')
        for image in image_list:
            # os.sep在mac系统中是/,如果是windows系统,\\,跨平台
            file_name = 'images'+ os.sep + image.split('/')[-1]
            image_data = self.get_data(image)
            with open(file_name,'wb') as f:
                f.write(image_data)

    def run(self):
        # 构造url和请求头
        # 发送请求,获取响应
        next_url = self.url
        # 开启循环,
        while next_url:
            data = self.get_data(next_url)

            # 解析列表页数据,返回的列表数据、下一页的的数据
            data_list,next_url = self.parse_list_page(data)
            # 解析详情页的数据,获取详情页的图片的链接地址
            for data in data_list:
                url = data['url']
                result_list = self.get_data(url)
                image_list = self.parse_detail_page(result_list)
                # 保存数据,下载图片
                self.download(image_list)

if __name__ == '__main__':
    # 爬取百度校花吧所有图片并存在文件夹中
    baidu = Baidu('校花吧')
    baidu.run()
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,427评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,551评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,747评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,939评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,955评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,737评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,448评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,352评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,834评论 1 317
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,992评论 3 338
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,133评论 1 351
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,815评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,477评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,022评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,147评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,398评论 3 373
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,077评论 2 355

推荐阅读更多精彩内容

  • 本文转载:静觅 » [Python3网络爬虫开发实战] 4.1-使用XPath XPath,全称XML Path ...
    罗汉堂主阅读 398评论 0 0
  • ···lxml用法源自 lxml python 官方文档,更多内容请直接参阅官方文档,本文对其进行翻译与整理。lx...
    小丰丰_72a2阅读 957评论 0 1
  • 《六项精进》打卡第 190 天 姓名:闵慧贤 公司:上海晋名实业有限公司 组别:谦虚三组 【知~学习】 背诵《六项...
    闵慧贤阅读 31评论 0 0
  • 她第一来的时候全班在喝彩 她的表情很错愕 整堂课没多少在听 讨论的都是她的容貌 默写检查单词 写不出来的 写出来的...
    Yinfa阅读 273评论 0 0
  • 显然,当一个人开始论某种事物的时候,也意味着这样的一个的论题必然有行不通的地方。
    奶香味旅途阅读 168评论 0 2