数据解析之XPath语法和lxml模块

什么是XPath?

xpath(XML Path Language)是一门在XML和HTML文档中查找信息的语言,可用来在XML和HTML文档中对元素和属性进行遍历。

XPath开发工具

  1. Chrome插件XPath Helper。
  2. Firefox插件Try XPath。

XPath语法

选取节点:

XPath 使用路径表达式来选取 XML 文档中的节点或者节点集。这些路径表达式和我们在常规的电脑文件系统中看到的表达式非常相似。

表达式 描述 示例 结果
nodename 选取此节点的所有子节点 bookstore 选取bookstore下所有的子节点
/ 如果是在最前面,代表从根节点选取。否则选择某节点下的某个节点 /bookstore 选取根元素下所有的bookstore节点
// 从全局节点中选择节点,随便在哪个位置 //book 从全局节点中找到所有的book节点
@ 选取某个节点的属性 //book[@price] 选择所有拥有price属性的book节点
. 当前节点 ./a 选取当前节点下的a标签

谓语:

谓语用来查找某个特定的节点或者包含某个指定的值的节点,被嵌在方括号中。
在下面的表格中,我们列出了带有谓语的一些路径表达式,以及表达式的结果:

路径表达式 描述
/bookstore/book[1] 选取bookstore下的第一个子元素
/bookstore/book[last()] 选取bookstore下的倒数第二个book元素。
bookstore/book[position()<3] 选取bookstore下前面两个子元素。
//book[@price] 选取拥有price属性的book元素
//book[@price=10] 选取所有属性price等于10的book元素
//book[contains(@class,'name')] 选取所有book元素下class属性包含有name参数

通配符

*表示通配符。

通配符 描述 示例 结果
* 匹配任意节点 /bookstore/* 选取bookstore下的所有子元素。
@* 匹配节点中的任何属性 //book[@*] 选取所有带有属性的book元素。

选取多个路径:

通过在路径表达式中使用“|”运算符,可以选取若干个路径。
示例如下:

//bookstore/book | //book/title
# 选取所有book元素以及book元素下所有的title元素

运算符:

lxml库

lxml 是 一个HTML/XML的解析器,主要的功能是如何解析和提取 HTML/XML 数据。

lxml和正则一样,也是用 C 实现的,是一款高性能的 Python HTML/XML 解析器,我们可以利用之前学习的XPath语法,来快速的定位特定元素以及节点信息。

lxml python 官方文档:http://lxml.de/index.html

需要安装C语言库,可使用 pip 安装:pip install lxml

基本使用:

我们可以利用他来解析HTML代码,并且在解析HTML代码的时候,如果HTML代码不规范,他会自动的进行补全。示例代码如下:

# 使用 lxml 的 etree 库
from lxml import etree

text = '''
<div>
    <ul>
         <li class="item-0"><a href="link1.html">first item</a></li>
         <li class="item-1"><a href="link2.html">second item</a></li>
         <li class="item-inactive"><a href="link3.html">third item</a></li>
         <li class="item-1"><a href="link4.html">fourth item</a></li>
         <li class="item-0"><a href="link5.html">fifth item</a> # 注意,此处缺少一个 </li> 闭合标签
     </ul>
 </div>
'''

#利用etree.HTML,将字符串解析为HTML文档
html = etree.HTML(text)

# 按字符串序列化HTML文档
result = etree.tostring(html)

print(result)

输入结果如下:

<html><body>
<div>
    <ul>
         <li class="item-0"><a href="link1.html">first item</a></li>
         <li class="item-1"><a href="link2.html">second item</a></li>
         <li class="item-inactive"><a href="link3.html">third item</a></li>
         <li class="item-1"><a href="link4.html">fourth item</a></li>
         <li class="item-0"><a href="link5.html">fifth item</a></li>
</ul>
 </div>
</body></html>

可以看到。lxml会自动修改HTML代码。例子中不仅补全了li标签,还添加了body,html标签。

从文件中读取html代码:

除了直接使用字符串进行解析,lxml还支持从文件中读取内容。我们新建一个hello.html文件:

<!-- hello.html -->
<div>
    <ul>
         <li class="item-0"><a href="link1.html">first item</a></li>
         <li class="item-1"><a href="link2.html">second item</a></li>
         <li class="item-inactive"><a href="link3.html"><span class="bold">third item</span></a></li>
         <li class="item-1"><a href="link4.html">fourth item</a></li>
         <li class="item-0"><a href="link5.html">fifth item</a></li>
     </ul>
 </div>

然后利用etree.parse()方法来读取文件。示例代码如下:

from lxml import etree

# 读取外部文件 hello.html
html = etree.parse('hello.html')
result = etree.tostring(html, pretty_print=True)

print(result)

输入结果和之前是相同的。

在lxml中使用XPath语法:

  1. 获取所有li标签:

     from lxml import etree
    
     html = etree.parse('hello.html')
     print type(html)  # 显示etree.parse() 返回类型
    
     result = html.xpath('//li')
    
     print(result)  # 打印<li>标签的元素集合
    
    
  2. 获取所有li元素下的所有class属性的值:

     from lxml import etree
    
     html = etree.parse('hello.html')
     result = html.xpath('//li/@class')
    
     print(result)
    
    
  3. 获取li标签下href为www.baidu.com的a标签:

     from lxml import etree
    
     html = etree.parse('hello.html')
     result = html.xpath('//li/a[@href="www.baidu.com"]')
    
     print(result)
    
    
  4. 获取li标签下所有span标签:

     from lxml import etree
    
     html = etree.parse('hello.html')
    
     #result = html.xpath('//li/span')
     #注意这么写是不对的:
     #因为 / 是用来获取子元素的,而 <span> 并不是 <li> 的子元素,所以,要用双斜杠
    
     result = html.xpath('//li//span')
    
     print(result)
    
    
  5. 获取li标签下的a标签里的所有class:

     from lxml import etree
    
     html = etree.parse('hello.html')
     result = html.xpath('//li/a//@class')
    
     print(result)
    
    
  6. 获取最后一个li的a的href属性对应的值:

     from lxml import etree
    
     html = etree.parse('hello.html')
    
     result = html.xpath('//li[last()]/a/@href')
     # 谓语 [last()] 可以找到最后一个元素
    
     print(result)
    
    
  7. 获取倒数第二个li元素的内容:

     from lxml import etree
    
     html = etree.parse('hello.html')
     result = html.xpath('//li[last()-1]/a')
    
     # text 方法可以获取元素内容
     print(result[0].text)
    
    
  8. 获取倒数第二个li元素的内容的第二种方式:

     from lxml import etree
    
     html = etree.parse('hello.html')
     result = html.xpath('//li[last()-1]/a/text()')
    
     print(result)
    
    

chrome相关问题:

在62版本(目前最新)中有一个bug,在页面302重定向的时候不能记录FormData数据。这个是这个版本的一个bug。详细见以下链接:https://stackoverflow.com/questions/34015735/http-post-payload-not-visible-in-chrome-debugger。

在金丝雀版本中已经解决了这个问题,可以下载这个版本继续,链接如下:https://www.google.com/chrome/browser/canary.html

实战-豆瓣电影爬虫:

import requests
from lxml import etree


# 1.将目标网站的页面抓取下来
headers = {
    'Host':'movie.douban.com',
    'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',
    'Referer':'https://www.baidu.com/s?ie=utf-8&f=8&rsv_bp=1&srcqid=2328577874318033697&tn=93006350_hao_pg&wd=douban&oq=%25E8%2585%25BE%25E8%25AE%25AF%25E6%258B%259B%25E8%2581%2598&rsv_pq=a5c9fad500032d39&rsv_t=c45fuFhfw1QXFIl989itMrzlcssxBzOrrVGSndzUMM1KcQQn7C8JY6zoz3pfqLSKLuTd0%2FO8&rqlang=cn&rsv_enter=1&inputT=5137&rsv_sug3=33&rsv_sug2=0&rsv_sug4=5138'
}

url = 'https://movie.douban.com/'
resp = requests.get(url=url,headers=headers)
text = resp.text
# 2.将抓取下来的数据根据一点的规则进行提取
parser = etree.HTMLParser(encoding='utf-8')
html = etree.HTML(text,parser=parser)
ul = html.xpath("//ul[@class='ui-slide-content']")[0]
lis = ul.xpath("./li")
positions = []
for li in lis:
    url = li.xpath(".//li[@class='poster']/a/@href")[0]
    payUrl = li.xpath(".//li[@class='ticket_btn']//a/@href")[0]
    img = li.xpath(".//img/@src")[0]
    title = li.xpath("@data-title")[0]
    release = li.xpath("@data-release")[0]
    rate = li.xpath("@data-rate")[0]
    director = li.xpath("@data-director")[0]
    actors = li.xpath("@data-actors")[0]
    duration = li.xpath("@data-duration")[0]
    region = li.xpath("@data-region")[0]

    position = {
        'url':url,
        'payUrl':payUrl,
        'img':img,
        'title':title,
        'release':release,
        'rate':rate,
        'director':director,
        'actors':actors,
        'duration':duration,
        'region':region
    }
    positions.append(position)

print(positions)

实战-电影天堂爬虫:

from lxml import etree
import requests


# 分页爬取和详情页面
# BASE_URL = 'http://www.ygdy8.com/'
# url = 'http://www.ygdy8.com/html/gndy/dyzz/list_23_1.html'
# headers = {
#     'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36'
# }
#
# resp = requests.get(url=url,headers=headers)
# text = resp.content.decode('gbk')
#
# parser = etree.HTMLParser(encoding='utf-8')
# html = etree.HTML(text,parser=parser)
# detail_urls = html.xpath("//table[@class='tbspan']//a/@href")
# for detail_url in detail_urls:
#     print(BASE_URL+detail_url)

# 1. 先抓取每个页面的详情url
BASE_URL = 'http://www.ygdy8.com/'
HEADERS = {
    'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36'
}
def get_detail_urls(url):
    resp = requests.get(url=url, headers=HEADERS)
    #text = resp.content.decode('gbk')
    text = resp.text

    parser = etree.HTMLParser(encoding='utf-8')
    html = etree.HTML(text, parser=parser)
    detail_urls = html.xpath("//table[@class='tbspan']//a/@href")
    # map将列表的每一项做相同的事情(等价于以下表达式)
    # def abc(url):
    #     return BASE_URL+url
    # index = 0
    # for detail_url in detail_urls:
    #     detail_url = abs(detail_url)
    #     detail_urls[index] = detail_url
    #     index += 1
    detail_urls = map(lambda url:BASE_URL+url,detail_urls)
    return detail_urls

def parse_detail_page(url):
    movies = {}
    response = requests.get(url,headers=HEADERS)
    text = response.content.decode('gbk')
    html = etree.HTML(text)
    title = html.xpath("//div[@class='title_all']//font/text()")[0]
    movies['title'] = title
    imgs = html.xpath("//div[@id='Zoom']//img")

    if len(imgs) > 0:
        if len(imgs) == 1:
            cover = imgs[0]
            movies['cover'] = cover
            screenshot = ''
            movies['screenshot'] = screenshot
        if len(imgs) == 2:
            cover = imgs[0]
            movies['cover'] = cover
            screenshot = imgs[1]
            movies['screenshot'] = screenshot

    infos = html.xpath("//div[@id='Zoom']//text()")

    actors = []
    abstracts = []

    # for info in infos:
    for index,info in enumerate(infos):
        # print(info)
        # print(index)
        # startswith 函数是判断前面字符是否一样
        if info.startswith('◎年  代'):
            #replace 是替换函数  strip 将一个字符串的前后空字符全部删掉
            year = info.replace('◎年  代','').strip()
            movies['year'] = year

        elif info.startswith('◎产  地'):
            # replace 是替换函数  strip 将一个字符串的前后空字符全部删掉
            country = info.replace('◎产  地', '').strip()
            movies['country'] = country

        elif info.startswith('◎类  别'):
            # replace 是替换函数  strip 将一个字符串的前后空字符全部删掉
            category = info.replace('◎类  别', '').strip()
            movies['category'] = category

        elif info.startswith('◎语  言'):
            # replace 是替换函数  strip 将一个字符串的前后空字符全部删掉
            language = info.replace('◎语  言', '').strip()
            movies['language'] = language

        elif info.startswith('◎主  演'):
            # replace 是替换函数  strip 将一个字符串的前后空字符全部删掉
            actor = info.replace('◎主  演', '').strip()
            actors = [actor]
            for x in range(index+1,len(infos)):
                if infos[x].startswith('◎简  介 '):
                    break
                actors.append(infos[x].strip())
            movies['actors'] = actors

        elif info.startswith('◎简  介'):
            # replace 是替换函数  strip 将一个字符串的前后空字符全部删掉
            # abstract = info.replace('◎简  介', '').strip()
            for x in range(index + 1, len(infos)):
                if infos[x].startswith('【下载地址】'):
                    break
                abstract = infos[x].strip()
                abstracts.append(abstract)
            movies['abstract'] = abstracts

    download_url = html.xpath("//div[@id='Zoom']//td[@style='WORD-WRAP: break-word']/a/@href")[0]
    movies['download_url'] = download_url
    return movies


def spider():
    base_url = 'http://www.ygdy8.com/html/gndy/dyzz/list_23_{}.html'
    for x in range(1,8):
        url = base_url.format(x)
        movie_detail_urls = get_detail_urls(url)
        for movie_detail_url in movie_detail_urls:
            movies = parse_detail_page(movie_detail_url)
            print(movies)


if __name__ == '__main__':
    spider()

实战抓取广西人才网最新的python工程师的招聘信息:

from lxml import etree
import requests


# 实战抓取广西人才网最新的python工程师的招聘信息

BASE_URL = 'http://s.gxrc.com/'
HEADERS = {
    'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36'
}


def spider():
    base_url = 'http://s.gxrc.com/sJob?schType=1&pageSize=20&orderType=0&listValue=1&keyword=python&page={}'
    for x in range(1,7):
        url = base_url.format(x)
        detail_urls = get_detail_urls(url)
        for detail_url in detail_urls:
            detail = parse_detail_page(detail_url)
            print(detail)


def parse_detail_page(url):
    detail = {}
    response = requests.get(url,headers=HEADERS)
    text = response.content.decode('gbk')
    html = etree.HTML(text)
    job = html.xpath("//div[@class='gsR_con']//h1[@id='positionName']/text()")[0]
    detail['job'] = job.strip()
    company = html.xpath("//div[@class='gsR_con']//a/text()")[0]
    detail['job'] = company

    infos = html.xpath("//div[@class='gsR_con']/table[@class='gs_zp_table']//td/text()")

    for index,info in enumerate(infos):
        if index == 0:
            detail['num'] = info.strip()
        elif index == 1:
            detail['education'] = info.strip()
        elif index == 2:
            detail['wages'] = info.strip()
        elif index == len(infos)-1:
            detail['welfare'] = info.strip()

    jobContentList = []
    jobContents = html.xpath("//div[@class='gz_info_txt']//p/text()")
    for jobContent in jobContents:
        jobContentList.append(jobContent.strip())
        print(jobContent)

    detail['jobContentList'] = jobContentList

    # num = html.xpath("//div[@class='gs_zp_table']//a/text()")[0]
    # detail['num'] = num
    # education = html.xpath("//div[@class='gs_zp_table']//a/text()")[0]
    # detail['education'] = education
    # wages = html.xpath("//div[@class='gsR_con']//a/text()")[0]
    # detail['wages'] = wages
    # welfare = html.xpath("//div[@class='gsR_con']//a/text()")[0]
    # detail['welfare'] = welfare
    # print(company)

    return detail


def get_detail_urls(url):
    resp = requests.get(url=url, headers=HEADERS)
    text = resp.content.decode('utf-8')

    parser = etree.HTMLParser(encoding='utf-8')
    html = etree.HTML(text, parser=parser)
    detail_urls = html.xpath("//div[@class='rlOne']//li[@class='w1']//a/@href")
    # map将列表的每一项做相同的事情(等价于以下表达式)
    # def abc(url):
    #     return BASE_URL+url
    # index = 0
    # for detail_url in detail_urls:
    #     detail_url = abs(detail_url)
    #     detail_urls[index] = detail_url
    #     index += 1
    #detail_urls = map(lambda url:BASE_URL+url,detail_urls)
    return detail_urls


if __name__ == '__main__':
    spider()

上一篇:网络请求之urllib网络请求库
下一篇:数据解析之BeautifulSoup4解析库

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,362评论 5 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,330评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,247评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,560评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,580评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,569评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,929评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,587评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,840评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,596评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,678评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,366评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,945评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,929评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,165评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,271评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,403评论 2 342

推荐阅读更多精彩内容

  • XPath语法和lxml模块 什么是XPath? xpath(XML Path Language)是一门在XML和...
    久壑阅读 629评论 0 1
  • ···lxml用法源自 lxml python 官方文档,更多内容请直接参阅官方文档,本文对其进行翻译与整理。lx...
    小丰丰_72a2阅读 938评论 0 1
  • 一、简介 XPath 是一门在 XML 文档中查找信息的语言。XPath 可用来在 XML 文档中对元素和属性进行...
    朝畫夕拾阅读 569评论 0 1
  • 38/16000,33/35 1各种一元捐 2陪伴先生一天 3微商卖货捐10元 4帮助下属完成工作
    南戴河西谜会馆慧慧阅读 121评论 0 0
  • 1. 我曾经不止一次地对他们说,剑意在心不在剑,心正则剑成,心乱则剑荒。 但他们都不信,他们只是寻剑,疯狂地寻剑,...
    650d330ace1a阅读 185评论 0 0