Python 爬虫 - Xpath、bs4

xpath语法

安装

pip install lxml
表达式 描述
nodename 选取此节点的所有子节点。
/ 从根节点选取。
// 从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。
. 选取当前节点。
.. 选取当前节点的父节点。
@ 选取属性。

谓语

路径表达式 结果
/bookstore/book[1] 选取属于 bookstore 子元素的第一个 book 元素。
/bookstore/book[last()] 选取属于 bookstore 子元素的最后一个 book 元素。
/bookstore/book[last()-1] 选取属于 bookstore 子元素的倒数第二个 book 元素。
/bookstore/book[position()<3] 选取最前面的两个属于 bookstore 元素的子元素的 book 元素。
//title[@lang] 选取所有拥有名为 lang 的属性的 title 元素。
//title[@lang=’eng’] 选取所有 title 元素,且这些元素拥有值为 eng 的 lang 属性。
/bookstore/book[price>35.00] 选取 bookstore 元素的所有 book 元素,且其中的 price 元素的值须大于 35.00。
/bookstore/book[price>35.00]/title 选取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值须大于 35.00。

选取未知节点

通配符 描述
* 匹配任何元素节点。
@* 匹配任何属性节点。
node() 匹配任何类型的节点。

例子:

路径表达式 结果
/bookstore/* 选取 bookstore 元素的所有子元素。
//* 选取文档中的所有元素。
//title[@*] 选取所有带有属性的 title 元素。
选取若干路径 通过在路径表达式中使用“|”运算符,您可以选取若干个路径。
//book/title //book/price 选取 book 元素的所有 title 和 price 元素。
//title //price 选取文档中的所有 title 和 price 元素。
/bookstore/book/title //price 选取属于 bookstore 元素的 book 元素的所有 title 元素,以及文档中所有的 price 元素。

轴可定义相对于当前节点的节点集。

轴名称 结果
ancestor 选取当前节点的所有先辈(父、祖父等)。
ancestor-or-self 选取当前节点的所有先辈(父、祖父等)以及当前节点本身。
attribute 选取当前节点的所有属性。
child 选取当前节点的所有子元素。
descendant 选取当前节点的所有后代元素(子、孙等)。
descendant-or-self 选取当前节点的所有后代元素(子、孙等)以及当前节点本身。
following 选取文档中当前节点的结束标签之后的所有节点。
namespace 选取当前节点的所有命名空间节点。
parent 选取当前节点的父节点。
preceding 选取文档中当前节点的开始标签之前的所有节点。
preceding-sibling 选取当前节点之前的所有同级节点。
self 选取当前节点。

步的语法:
轴名称::节点测试[谓语]

例子:

例子 结果
child::book 选取所有属于当前节点的子元素的 book 节点。
attribute::lang 选取当前节点的 lang 属性。
child::* 选取当前节点的所有子元素。
attribute::* 选取当前节点的所有属性。
child::text() 选取当前节点的所有文本子节点。
child::node() 选取当前节点的所有子节点。
descendant::book 选取当前节点的所有 book 后代。
ancestor::book 选择当前节点的所有 book 先辈。
ancestor-or-self::book 选取当前节点的所有 book 先辈以及当前节点(如果此节点是 book 节点)
child::*/child::price 选取当前节点的所有 price 孙节点。

函数

1. starts-with函数

获取以xxx开头的元素
例子:xpath(‘//div[stars-with(@class,”test”)]’)

2 contains函数

获取包含xxx的元素
例子:xpath(‘//div[contains(@id,”test”)]’)

3 and

与的关系
例子:xpath(‘//div[contains(@id,”test”) and contains(@id,”title”)]’)

4 text()函数

例子1:xpath(‘//div[contains(text(),”test”)]’)
例子2:xpath(‘//div[@id=”“test]/text()’)

bs4

安装

pip install beautifulsoup4

一、标签选择器

通过soup.标签名 就可以获得这个标签的内容

print(soup.title)

获取p标签

print(soup.p)

获取第一个p标签的文本内容

print(soup.p.string)

嵌套选择

获取head标签下的title标签的文本内容

print(soup.head.title.string)

节点选择

p标签的子节点

contents返回的是列表

print(soup.p.contents)

chilren 返回的是迭代对象

le=soup.p.children
for i in le:
    print(i)

父节点

print(soup.a.parent)

获取所有超链接

for link in soup.find_all('a'):
    print(link.get('href'))

获取标签文本内容

print(soup.get_text())

二、标准选择器

find_all(name,attrs,text)

可以根据标签名,属性,文本内容查找文档

find():返回匹配结果的一个元素

from bs4 import BeautifulSoup
soup= BeautifulSoup(html,'lxml')

(1)name 的用法

print(soup.find_all('ul'))

结果返回的一个列表的方式

print(soup.find_all('ul')[0])

查找所有ul标签下的li标签

for ul in soup.find_all('ul'):
    print(ul.find_all('li'))

(2) attrs的用法

print(soup.find_all(attrs={'id':'list-1'}))

找class属性值是panel-heading的对应标签

print(soup.find_all(attrs={'class':'panel-heading'}))

(3)text

print(soup.find_all(text='Foo'))

三、css选择器

select()
1.表示class ,#表示id
2.其他属性 比如:[name=Tom]
3.标签1,标签2 找到所有的标签1和标签2
4.标签1 标签2 找到标签1内部的标签2

获取属性class值是panel的标签下的class属性值是panel-body的标签

print(soup.select('.panel .panel-body'))

获取ul标签下的所有li标签

print(soup.select('ul li'))

获取id属性为list-2的标签内部的class属性值是element的标签

print(soup.select('#list-2 .element'))

获取文本内容
get_text()可以获取文本内容

for li in soup.select('li'):
    print(li.get_text())
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • xpath的作用就是两个字“定位”,运用各种方法进行快速准确的定位,推荐两个非常有用的的firefox工具:fir...
    Near尼尔阅读 290评论 0 0
  • 一、前言 通过前面的文章,我们已经知道了如何获取网页和下载文件,但是前面我们获取的网页都是未经处理的,冗余的信息太...
    渔父歌阅读 25,642评论 1 19
  • 当你看清了一个人而不揭穿, 你就懂得了原谅的意义; 讨厌一个人而不翻脸, 你就懂得了至极的尊重。 活着,总有你看不...
    温柔如春风阅读 159评论 0 0
  • 近些年,闲暇时我喜欢独处,习惯四处游荡,也曾到访过国内很多所知名University。诸如:北大、清华、浙大、交大...
    阿李居士阅读 255评论 0 0
  • 你是有独特气质的女子 总是觉得自己与这个世界格格不入 却不愿随波逐流 享受这个只属于自己一个人的美好
    琳琳安阅读 224评论 0 1

友情链接更多精彩内容