BeautifulSoup 库

Python BeautifulSoup 库

一、BeautifulSoup 库概述

什么是 BeautifulSoup?

  • BeautifulSoup 是一个Python库,用于从 HTML 提取数据。
  • 它提供了简单而灵活的方式来遍历和搜索文档树,以及解析和提取所需的数据。

安装 BeautifulSoup 库

  • 在 Python 中,可以使用 pip 命令来安装 BeautifulSoup 库:pip install beautifulsoup4

二、 使用 BeautifulSoup 库解析 HTML 文档

导入库

from bs4 import BeautifulSoup

解析 HTML 文档

# 从文件中解析 HTML 文档
with open('example.html') as file:
    soup = BeautifulSoup(file, 'lxml')

# 从字符串中解析 HTML 文档
html = '<html><body><h1>Hello, World!</h1></body></html>'
soup = BeautifulSoup(html, 'lxml')
获取标签对象:
对象.标签名  如果标签名有多个,只会拿到第一个
对象.find(标签名)  如果标签名有多个,只会拿到第一个
对象.find(标签名,属性名=属性值) 找标签名并且属性名=属性值的标签,如果有多个,只会拿第一个

对象.findAll(标签名) 返回列表,如果标签名有多个,全部在列表中
对象.findAll(标签名,属性名=属性值) 如果是class属性 class_=属性值


对象.select(选择器) 返回列表,如果标签名有多个,全部在列表中
对象.select("#id属性值")
对象.select(".class属性值")
对象.select("标签名")
对象.select("标签名1>标签名2") 匹配标签名1的儿子标签2
对象.select("标签名1 标签名2") 匹配标签名1的后代标签2

对象.string 如果标签内还包含子标签,拿不到该标签的文本,只有一个文本内容
 <div class="footer-box1">
            ciicicici
</div>
对象.text
 <div class="footer-box1">
            ciicicici
            <div>avbcchjdjahuisd</div>
</div>
获取属性值:
    对象[属性名]

使用方式

'''
作用:提取目标数据

beautifulSoup4 从 html 或者 xml 文件中提取数据

pip install beautifulSoup4
pip install lxml
配合 lxml

1.通过 beautifulSoup 对象,把带解析的页面源码数据加载到该对象中
2.调用方法进行定位来提取数据

1-本地 html 中
BeautifulSoup(本地的html文件对象,解析器的名字)
2-网页源码数据

'''
# with open() as f:  自动关闭文件
# f = open() # 手动关闭文件
from bs4 import BeautifulSoup

f = open('test.html','r',encoding='utf-8')
s = BeautifulSoup(f,'lxml') # 创建 BeautifulSoup 对象,把对象交给 s 变量保存
# print(s) # BeautifulSoup 对象
#
# print(s.title) # 定位标签:对象.标签名
# print(s.link) # 如果标签有多个,只会获取到第一个

# 对象.find(标签名,属性名=属性值)
# print(s.find('p',id=111))
# 如果属性名为class,class_

# 如果页面中有多个div标签,并且class属性值是一样的,只会获取到第一个
# print(s.find('div',class_='footer-content'))
# print(s.find('meta',charset='utf-8'))
# print(s.findAll('meta', charset='utf-8'))
# print(s.findAll('div', class_='footer-content'))
# print(s.findAll('link'))

# find:返回满足条件的第一个
# findAll:返回满足条件的所有(列表)
'''
<p id=1>1</p>
<p>2</p>
<p>3</p>
'''
# 选择器查找
# 标签名选择器 id选择器 #id值
# class选择器 .class值
# print(s.select('#abc'))
# print(s.select('.footer-content'))
# 子类选择器 后代选择器
# print(s.select('#aaa>a>b'))
# 后代选择器(儿子,孙子....) 空格隔开
# print(s.select('link b'))


# 获取标签内的内容
# print(s.select('#abc')[0].string) # select返回的是列表
# print(s.find('a',id='abc').string) # find只返回一个对象
#
# print(s.find('a',id='abc').text)
# string:改标签的文本内容
# print(s.find('div',class_='footer-box').string)
# print('----------------------')
# text:该标签下的所有文本内容
# print(s.find('div',class_='footer-box').text)

# 一旦标签中还有子标签,当前这个标签的内容,用string获取不到
# print(s.find('div',class_='footer-box1').string)
# # 拿到该标签下所有的文本内容
# print(s.find('div',class_='footer-box1').text)

# print(s.select('#abc')[0]['href'])
# print(s.find('a',id="abc")['href'])

f.close()

import os

from bs4 import BeautifulSoup

# 爬取到的数据写入到雪中悍刀行的文件夹中,如果文件夹不存在,希望自动创建
# os.path.exists('雪中悍刀行') # 当前这个文件夹是否存在,如果存在,为 True,如果不存在为 False
if not os.path.exists('雪中悍刀行'):
#     如果文件夹不存在,则进入if执行代码,自动创建文件夹
     os.mkdir('雪中悍刀行')
url = 'https://www.junjh.com/xiaoshuo/26/26399/'
import requests
res = requests.get(url)
s = BeautifulSoup(res.text,'lxml')
# 获取列表页的所有 a 标签
a_lis = s.select('.mulu_list>li>a')
count = 1
# 循环列表,取出每一个 a 标签
for i in a_lis:
    # print(i)
    # 获取 href 属性值
    # 获取 title 属性值
    # 获取第一章 url 和标题
    # print(i['href'],i['title'])
    # 拼接完整 url
    # https://www.junjh.com/xiaoshuo/26/26399/13018634.html
    # href = 'https://www.junjh.com'+i['href'] # https://www.junjh.com/xiaoshuo/26/26399/13018634.html
    href = f'https://www.junjh.com{i["href"]}'
    # 重新发起请求,请求章节 url
    response = requests.get(href)
    page_text = response.text# 每一个章节的 html 源码数据
    # 对数据进行提取,创建对象解析的页面为小说页面数据
    ss = BeautifulSoup(page_text, 'lxml')
    # 小说数据在div id=htmlContent下的p标签内
    text = ss.select('#htmlContent>p')[0].text

    # print(text)
    # 保存到文件中
    with open(f'雪中悍刀行/{count}.txt','a',encoding='utf-8')as f:
        f.write(text)
    count += 1
    if count == 11:
        break
'''
1-获取小说的详情页(每个章节描述)
2-解析章节 url
3-对章节url发起请求,获取章节页面数据
4-对数据进行解析,只需要拿小说数据
5-保存数据到文件中
'''

总结

  • BeautifulSoup 是一个强大的 Python 库,用于解析 HTML 或 XML 文档,并提供了简单而灵活的方式来提取所需的数据。
  • 通过导入 BeautifulSoup 库,并使用其提供的方法,可以方便地解析文档、搜索元素,并提取文本内容和属性值。
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,590评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 86,808评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,151评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,779评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,773评论 5 367
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,656评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,022评论 3 398
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,678评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 41,038评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,659评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,756评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,411评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,005评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,973评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,203评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,053评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,495评论 2 343

推荐阅读更多精彩内容