第三课 Python爬虫Beautifulsoup4模块的使用

Beautifulsoup作用:

将网页(非结构化内容)转化成结构化内容

.text取得bs对象的文字内容(去除HTML标签)

现在令一个新的字符串:

html sample ='

Hello World!

This is link1

This is link2'

将字符串转化为bs对象:

soup = BeautifulSoup(html_sample)


去除警告信息的方法:

原因:因为没有指定“剖析器”

解决:

soup = BeautifulSoup(html_sample,'html.parser')


找寻特定元素:

#使用select找出含有h1标签的元素

alink = soup.select('h1')

print(alink)


Print(alink[0])

输出的是内容,没有中括号


print(alink[0].text)

输出标签内的文字


#使用select找出含有a标签的元素

alink = soup.select('a')

print(alink)


#使用select找出id="title"的内容(id前面需要加上#)感觉就类似CSS语法

alink = soup.select('#title')

print(alink)


#使用select找出class="link"的内容(class前面需要加上.)

alink = soup.select('.link')

print(alink)


我们看到输出多个结果,以列表的形式存储

相信这样大家就会更加清晰明白了:


循环输出:

for link in alink:

print(link)


.text的利用


获取a标签的href属性:

for link in alink:

print(link['href'])


会把href等属性包装成一个字典故很方便地取到数据!

取属性值:

html_sample2 = ' hello world! hello world2!'

soup2 = BeautifulSoup(html_sample2,'html.parser')

print(soup2.select('a')[0]['id'])

print(soup2.select('a')[1]['id'])


注:本文属于原创文章,转载请注明本文地址!

作者QQ:1099718640

CSDN博客主页:http://blog.csdn.net/dyboy2017

Github开源项目:https://github.com/dyboy2017/spider

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容