beautifulsoup、pyquery

beautifulsoup

和 lxml 一样,Beautiful Soup 也是一个HTML/XML的解析器,主要的功能也是如何解析和提取 HTML/XML 数据。

lxml 只会局部遍历,而Beautiful Soup 是基于HTML DOM的,会载入整个文档,解析整个DOM树,因此时间和内存开销都会大很多,所以性能要低于lxml。

BeautifulSoup 用来解析 HTML 比较简单,API非常人性化,支持CSS选择器、Python标准库中的HTML解析器,也支持 lxml 的 XML解析器。

简单说 : beasoup的作用是从HTML中提取数据,会载入整个HTML,DOM 比lxml解析器效率低
安装: pip3 install beautifulsoup4
eg : 以腾讯招聘为例

'''
https://hr.tencent.com/position.php?
https://hr.tencent.com/position.php?&start=10
'''
from bs4 import BeautifulSoup
import requests
import mysql.connector as c

def tengxunJob(url):
    # 构建下一页偏移量
    # next_offset = offset + 10
    # 继续发起请求,解析数据
    # tengxunJob(next_offset)
    # 这种根据偏移量构建下一页的方式并不好,如果有下一页可以提取该标签的href属性
    html = load_data(full_url)
    next_url = parse_page_data(html)
    if 'javascript:;' != next_url:
        next_url = 'https://hr.tencent.com/' + next_url
        tengxunJob(next_url)

def load_data(url):
    '''
    发起请求,获取职位列表页HTML
    :param url:
    :return:
    '''
    req_header = {
        'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 '
    }
    response = requests.get(url,headers=req_header)
    if response.status_code == 200:
        return response.text

def parse_page_data(html):
    '''
    解析分页的HTML源码数据
    :return:
    '''
    '''
    features = None : 指明bs解析器
    lxml : 使用lxml下的HTML解析器
    html.parser : 是Python自带的一个解析器模块
    '''
    html_bs = BeautifulSoup(html,features='lxml')
    #找到职位列表
    # html_bs.find() : 查找一个
    # html_bs.find_all() : 查找所以符合条件的节点
    '''
    name = None : 指定要查找的标签名,可以是一个字符串,正则表达式,或列表
    attrs = {} : 根据属性的值查找标签(dict){‘属性名称’:‘属性的值’}
    text = None : 可以是一个字符串,正则表达式,查找符合条件的文本内容
    limit = None : 限制返回的标签的个数
    find_all : 返回的标签都放在列表里
    '''
    tr_even = html_bs.find_all(name='tr',attrs={'class':'even'})
    tr_odd = html_bs.find_all(name='tr',attrs={'class':'odd'})
    for tr in tr_even + tr_odd:
        # print(tr)
        jobinfo = {}
        # get_text() : 表示取文本
        jobinfo['title'] = tr.select('td.l.square > a')[0].get_text()
        # 职位的类型
        jobinfo['type'] = tr.select('td')[1].get_text()
        # jobinfo['type'] = tr.select('td:nth-child(2)').get_text()
        #
        jobinfo['num'] = tr.select('td')[2].get_text()
        jobinfo['address'] = tr.select('td')[3].get_text()
        jobinfo['time'] = tr.select('td')[4].get_text()
        # 职位详情地址
        detail_url = 'https://hr.tencent.com/' + tr.select('td.l.square > a')[0].attrs['href']
        # print(detail_url)
        # 详情的HTML
        html = load_data(detail_url)
        # 获取职位要求和描述
        jobinfo['content'] = parse_detail_data(html)
        print(jobinfo,detail_url)
        # 提取url链接
    next_url = html_bs.select('a#next')[0].attrs['href']
    return next_url

    # save_data_to_db(jobinfo)


def parse_detail_data(html):
    # 创建BeautifulSoup对象
    html_bs = BeautifulSoup(html,features='lxml')
    #使用css语法取出li标签
    content_li = html_bs.select('ul.squareli li')
    content = []
    # 取出li标签的文本,放入列表中
    for li in content_li:
        li_text = li.get_text('')
        content.append(li_text)
    return','.join(content)



# def save_data_to_db(jobinfo):
#     '''
#     存储数据
#     :param jobdata: 字典,存放职位信息
#     :return:
#     '''
#     sql = '''
#       insert into lagou(%s)
#             values(%s)'''%(','.join(jobinfo.keys()),
#                             ','.join(['%s']*len(jobinfo))
#                             )
#     try:
#         cursor.execute(sql, list(jobinfo.values()))
#         db.commit()
#     except Exception as err:
#         print(err)
#         db.rollback()

if __name__ == '__main__':

    db = c.Connect(user="root", password="123456", database="1712B")
    cursor = db.cursor()
    # 设置起始偏移量
    offset = 0
    full_url = 'https://hr.tencent.com/position.php?&start=' + str(offset)
    tengxunJob(full_url)


# create table tengxunzp(
# id int primary key auto_increment not null comment'id',
# title varchar(200) comment'标题',
# type varchar(200) comment'时间',
# num varchar(200) comment'人数',
# address varchar(200) comment'活动介绍',
# time varchar(200) comment'温馨提示',
# content varchar(200) comment'体验店介绍'
# );

Beautiful Soup将复杂HTML文档转换成一个复杂的树形结构,每个节点都是Python对象,所有对象可以归纳为4种:

  1. Tag

Tag 通俗点讲就是 HTML 中的一个个标签,例如:

<head><title>The Dormouse's story</title></head>
<a class="sister" href="http://example.com/elsie" id="link1"><!-- Elsie --></a>
<p class="title" name="dromouse"><b>The Dormouse's story</b></p>

上面的 title head a p等等 HTML 标签加上里面包括的内容就是 Tag,那么试着使用 Beautiful Soup 来获取 Tags:

from bs4 import BeautifulSoup

html = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title" name="dromouse"><b>The Dormouse's story</b></p>
<p class="story">Once upon a time there were three little sisters; and their names were
<a href="http://example.com/elsie" class="sister" id="link1"><!-- Elsie --></a>,
<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>
<p class="story">...</p>
"""

#创建 Beautiful Soup 对象
soup = BeautifulSoup(html)


print(soup.title)
# <title>The Dormouse's story</title>

print(soup.head)
# <head><title>The Dormouse's story</title></head>

print(soup.a)
# <a class="sister" href="http://example.com/elsie" id="link1"><!-- Elsie --></a>

print(soup.p)
# <p class="title" name="dromouse"><b>The Dormouse's story</b></p>

print(type(soup.p))
# <class 'bs4.element.Tag'>

我们可以利用 soup 加标签名轻松地获取这些标签的内容,这些对象的类型是bs4.element.Tag。但是注意,它查找的是在所有内容中的第一个符合要求的标签。如果要查询所有的标签,后面会进行介绍。

对于 Tag,它有两个重要的属性,是 name 和 attrs

print(soup.name)
# [document] #soup 对象本身比较特殊,它的 name 即为 [document]

print (soup.head.name)
# head #对于其他内部标签,输出的值便为标签本身的名称

print (soup.p.attrs)
# {'class': ['title'], 'name': 'dromouse'}
# 在这里,我们把 p 标签的所有属性打印输出了出来,得到的类型是一个字典。

print (soup.p['class'] # soup.p.get('class'))
# ['title'] #还可以利用get方法,传入属性的名称,二者是等价的

soup.p['class'] = "newClass"
print soup.p # 可以对这些属性和内容等等进行修改
# <p class="newClass" name="dromouse"><b>The Dormouse's story</b></p>
  1. NavigableString

既然我们已经得到了标签的内容,那么问题来了,我们要想获取标签内部的文字怎么办呢?很简单,用 .string 即可,例如

print (soup.p.string)
# The Dormouse's story

print (type(soup.p.string))
# In [13]: <class 'bs4.element.NavigableString'>
  1. BeautifulSoup BeautifulSoup 对象表示的是一个文档的内容。大部分时候,可以把它当作 Tag 对象,是一个特殊的 Tag,我们可以分别获取它的类型,名称,以及属性来感受一下

       print type(soup.name)
     # <type 'unicode'>
    
     print soup.name 
     # [document]
    
     print soup.attrs # 文档本身的属性为空
     # {}
    
  2. Comment Comment 对象是一个特殊类型的 NavigableString 对象,其输出的内容不包括注释符号。

     print soup.a
     # <a class="sister" href="http://example.com/elsie" id="link1"><!-- Elsie --></a>
    
     print soup.a.string
     # Elsie 
    
    print type(soup.a.string)
     # <class 'bs4.element.Comment'>
    ##pyquery
    

pyquery

pyquery语法规则类似于Jquery,可以对html文本进行解析
安装 : pip3 install pyquery

pq = PyQuery(html文档)
pq(‘css选择器’)
items():获取到多个标签时,使用items()将PyQuery转换为一个生成器,然后再使用for in 循环
filter(‘css选择器’):过滤
text():获取标签的文本
attr(‘属性名’)获取属性值

.html()和.text() 获取相应的 HTML 块或者文本内容,

p=pq("<head><title>Hello World!</title></head>")
获取相应的 HTML 块
print (p('head').html())
获取相应的文本内容
print (p('head').text())

输出:

<title>hello Word</title>
Hello World!

(selector):通过选择器来获取目标内容,

d = pq(
"<div><p id='item-0'>test 1</p><p class='item-1'>test 2</p></div>")
获取 <div> 元素内的 HTML 块
print (d('div').html())
获取 id 为 item-0 的元素内的文本内容
print (d('#item-0').text())
获取 class 为 item-1 的元素的文本内容
print (d('.item-1').text())

输出:

<p id="item-0">test 1</p><p class="item-1">test 2</p>
test 1
test 2

.eq(index):根据索引号获取指定元素(index 从 0 开始)

d = pq(
"<div><p id='item-0'>test 1</p><p class='item-1'>test 2</p></div>"
)
获取第二个 p 元素的文本内容
print (d('p').eq(1).text())

'''输出
test 2
'''

.find():查找嵌套元素,

d = pq("<div><p id='item-0'>test 1</p><p class='item-1'>test 2</p></div>")
查找 <div> 内的 p 元素
print d('div').find('p') 
查找 <div> 内的 p 元素,输出第一个 p 元素
print d('div').find('p').eq(0) 

输出:

<p id="item-0">test 1</p><p class="item-1">test 2</p>
<p id="item-0">test 1</p>

.filter():根据 class、id 筛选指定元素,

d = pq("<div><p id='item-0'>test 1</p><p class='item-1'>test 2</p></div>")
查找 class 为 item-1 的 p 元素
print d('p').filter('.item-1')
查找 id 为 item-0 的 p 元素
print d('p').filter('#item-0') 

输出:
<p class="item-1">test 2</p>
<p id="item-0">test 1</p>

.attr():获取、修改属性值,

d = pq("<div><p id='item-0'>test 1</p><a class='item-1'>test 2</p></div>")
获取 <p> 标签的属性 id

print(d('p').attr('id'))

修改 <a> 标签的 class 属性为 new
print(d('a').attr('class','new'))

输出:
item-0
<a class="new">test 2</a>
'''
7、其他操作:

添加 class

.addClass(value):

判断是否包含指定的 class,返回 True 或 False

.hasClass(value):

获取子元素

.children():

获取父元素

.parents():

获取下一个元素

.next():

获取后面全部元素块

.nextAll():

获取所有不匹配该选择器的元素

.not_(selector):

eg:

from pyquery import PyQuery
import requests

def tencentJob(full_url):
    html = loda_data(full_url)
    next_url = parse_page_data(html)
    if 'javascript:;' != next_url:
        next_url = 'https://hr.tencent.com/'+next_url
        tencentJob(next_url)

def loda_data(url):
    """
    发起请求,获取职位列表页页面源码
    :param url:
    :return:
    """
    req_header = {
        'User-Agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',
    }
    response = requests.get(url,headers=req_header)

    if response.status_code == 200:

        return response.text

def parse_page_data(html):
    """
    解析分页的页面源码数据
    :param html:
    :return:
    """
    #实例化一个pyquery对象
    html_pq = PyQuery(html)
    #提取职位列表
    # tr_even = html_pq('tr.even')
    #filter过滤
    tr_even = html_pq('tr').filter('.even')
    tr_odd = html_pq('tr').filter('.odd')

    tr_all = tr_even + tr_odd
    tr_all = tr_all.items()
    #print(tr_all)

    # tr_even = tr_even.items()
    # tr_odd = tr_odd.items()
    #
    # print(tr_even, tr_odd)
    # print(type(tr_even), type(tr_odd))
    for tr in tr_all:
       # print(tr)
        jobinfo = {}
        #获取标题(使用.text()取出文本)
        jobinfo['title'] = tr('td.l.square a').text()
        #取详情地址,a标签的href属性(.attr('属性名'))
        detail_url = 'https://hr.tencent.com/'+tr('td.l.square a').attr('href')
        #职位类型eq(1):获取之地那个索引的标签,索引值从0开始
        jobinfo['type'] = tr('td').eq(1).text()
        #招聘人数
        jobinfo['needpeople'] = tr('td').eq(2).text()
        #地点
        jobinfo['adress'] = tr('td').eq(3).text()
        #发布时间
        jobinfo['publishTime'] = tr('td').eq(4).text()
        #工作详情的内容
        html = loda_data(detail_url)
        jobinfo['content'] = parse_detail_data(html)
        print(jobinfo)

    #提取下一页的url地址
    #next_url = html_pq('a').filter('#next')
    next_url = html_pq('a#next').attr('href')
    return next_url

def parse_detail_data(html):
    """
    解析详情数据
    :param html:
    :return:
    """
    #实例化一个pyquery对象
    html_pq = PyQuery(html)
    #提取详情内容所在的li标签
    lis = html_pq('ul.squareli li')
    content = []
    for li in lis.items():
        li_text = li.text()
        content.append(li_text)

    return ','.join(content)


if __name__ == '__main__':
    #设置起始偏移量
    offset = 0
    full_url = 'https://hr.tencent.com/position.php?&start=' + str(offset)
    tencentJob(full_url) 
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,718评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,683评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,207评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,755评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,862评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,050评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,136评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,882评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,330评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,651评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,789评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,477评论 4 333
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,135评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,864评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,099评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,598评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,697评论 2 351

推荐阅读更多精彩内容