什么是 XPath
XPath是一门在XML文档中查找信息的语言. XPath用于在XML文档中通过元素和属性进行导航.
XPath使用路径表达式在XML文档中进行导航
XPath包含一个标准函数库
XPath是XSLT中的主要元素
XPath是一个W3C 标准
XPath 术语
在XPath中,有七种类型的节点:元素、属性、文本、命名空间、处理指令、注释以及文档(根)节点.XML 文档是被作为节点树来对待的.树的根被称为文档节点或者根节点.
<?xml version="1.0" encoding="ISO-8859-1"?>
<bookstore> // 文档根节点
<book>
<title lang="en"> // 元素节点
Harry Potter
</title>
<author>J K. Rowling</author> // 元素节点
<year>2005</year>
<price>29.99</price>
</book>
</bookstore>
选取节点
下面列出了最有用的路径表达式:
表达式 描述
nodename 选取此节点的所有子节点。
/ 从根节点选取。
// 从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。
. 选取当前节点。
.. 选取当前节点的父节点。
@ 选取属性。
在下面的表格中,我们已列出了一些路径表达式以及表达式的结果:
路径表达式 结果
bookstore 选取 bookstore 元素的所有子节点
/bookstore 选取根元素 bookstore
bookstore/book 选取属于bookstore 的子元素的所有 book 元素。
//book 选取所有book 子元素,而不管它们在文档中的位置。
bookstore//book 选择属于bookstore 元素的后代的所有 book 元素,
而不管它们位于bookstore 之下的什么位置。
//@lang 选取名为 lang 的所有属性。
谓语 (Predicates)
谓语用来查找某个特定的节点或者包含某个指定的值的节点(谓语被嵌在方括号中)
/bookstore/book[1] 选取属于bookstore子元素的第一个book元素。
/bookstore/book[last()] 选取属于bookstore子元素的最后一个book元素。
/bookstore/book[last()-1] 选取属于bookstore子元素的倒数第二个book元素
/bookstore/book[position()<3] 选取最前面的两个属于bookstore元素的子元素的book元素
//title[@lang] 选取所有拥有名为 lang 的属性的 title 元素
//title[@lang='eng'] 选取所有title元素,且这些元素拥有值为eng的lang 属性
/bookstore/book[price>35.00] 选取bookstore元素的所有book元素,
且其中的price元素的值须大于35.00
/bookstore/book[price>35.00]/title 选取bookstore元素中的book元素的所有title元素,
且其中的 price 元素的值须大于 35.00
选取未知节点
XPath通配符可用来选取未知的XML元素
通配符 描述
* 匹配任何元素节点
@* 匹配任何属性节点
node() 匹配任何类型的节点
在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果
路径表达式 结果
/bookstore/* 选取 bookstore 元素的所有子元素。
//* 选取文档中的所有元素。
//title[@*] 选取所有带有属性的 title 元素。
选取若干路径
通过在路径表达式中使用"|"运算符,您可以选取若干个路径
在下面的表格中,我们列出了一些路径表达式,以及这些表达式的结果:
路径表达式 结果
//book/title | //book/price 选取book元素的所有title和price元素
//title | //price 选取文档中的所有title和price元素
/bookstore/book/title | //price 选取属于bookstore元素的book元素的所有title元素
以及文档中所有的price元素
lxml实例学习
安装lxml pip install lxml
1、本地文件&硬编码
from lxml import etree
''' for file approach
xml = etree.parse('books.xml');
text = xml.xpath('/bookstore/book/title/text()')
'''
content = '''
<bookstore>
<book category="COOKING">
<title lang="en">Everyday Italian</title>
<author>Giada De Laurentiis</author>
<year>2005</year>
<price>30.00</price>
</book>
<book category="CHILDREN">
<title lang="en">Harry Potter</title>
<author>J K. Rowling</author>
<year>2005</year>
<price>29.99</price>
</book>
<book category="WEB">
<title lang="en">XQuery Kick Start</title>
<author>James McGovern</author>
<author>Per Bothner</author>
<author>Kurt Cagle</author>
<author>James Linn</author>
<author>Vaidyanathan Nagarajan</author>
<year>2003</year>
<price>49.99</price>
</book>
<book category="WEB">
<title lang="en">Learning XML</title>
<author>Erik T. Ray</author>
<year>2003</year>
<price>39.95</price>
</book>
</bookstore>
''';
#content_1 = etree.tostring(content, pretty_print=True)
xml = etree.XML(content)
print(xml.xpath('/bookstore/book/title/text()'))
2、抓取网页xml文件
from lxml import etree
from urllib.request import Request, urlopen
from urllib.parse import urlencode
from urllib.error import HTTPError
from html.parser import HTMLParser
import chardet
import io
import gzip
url_heads = {
'Accept': '*/*',
'Accept-Encoding': 'gzip, deflate, br',
'Accept-Language': 'zh-CN,zh;q=0.9,en;q=0.8',
'Connection': 'keep-alive',
'Content-Type': 'application/x-www-form-urlencoded; charset=UTF-8',
'Host': 'www.jianshu.com',
'Origin': 'https://www.jianshu.com',
'Referer': 'https://www.jianshu.com/p/569c1c0afe1f',
'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36',
'X-Requested-With':'XMLHttpRequest'
}
url_data = {
'username': 'elan',
'password': '1234'
};
try:
# handle escape character
html_parser = HTMLParser();
# encode post data
encode_data = urlencode(url_data);
# url address
url = 'https://www.jianshu.com/p/569c1c0afe1f';
# prepare request template
req = Request(url=url, headers=url_heads);
# fetch raw data
content_raw = urlopen(req).read();
# fetch the encoding
encoding = chardet.detect(content_raw);
print('encoding:', encoding);
# gzip
content_unzip = gzip.GzipFile(fileobj=io.BytesIO(content_raw), mode="rb").read()
# decode to utf-8
if encoding not in ( 'utf-8', 'UTF-8' ) :
content = content_unzip.decode('utf-8', 'ignore')
else:
content = content_unzip.read()
content = html_parser.unescape(content)
xml = etree.HTML(content)
# 抓取所有标题
output = xml.xpath('/html//h2/text() | /html//h1/text()');
print(output)
except HTTPError as e:
print(e.code)