如何利用python 爬取文章,你可以不用,但你不能不会!

这里我们利用强大的python爬虫来爬取一篇文章。仅仅做一个示范,更高级的用法还要大家自己实践。

好了,这里就不啰嗦了,找到一篇文章的url地址:http://www.duanwenxue.com/article/673911.html

(注意,有一些网站会做一些反爬处理,关于这些网站的爬取会在近期的文章中说明)


这是一篇散文,)

但在解码是要decode(’GB18030‘),

具体说明:http://www.cnblogs.com/jjj-fly/p/6696523.html

下面开始实现代码:

#coding=GB18030

import urllib.request

from bs4 import BeautifulSoup

import re

url="http://www.duanwenxue.com/article/673911.html"

a=urllib.request.urlopen(url)

htmlstr=a.read().decode('GB18030')

soup=BeautifulSoup(htmlstr,'html.parser')

y=re.compile(r'<p>([\s\S]*?)</p>')

text=y.findall(str(soup))      #第一次正则表达式筛选所有<p></p>中的内容

x=''

print(len(text))

for i in range(0,len(text)):

    x=x+text[i]

text1=re.sub("</?\w+[^>]*>",'',x)  #去掉html标签

text2=text1.replace("。",'。\n\n\0\0')  #让文本更好看

print(text2)

 输出结果


主编曾经是全栈工程师,有5年的编程开发经验,主修p -ython,目前正转行做p-ython编程老师,想学习爬v虫,数据分析,自动化办公,机器学习,人工智能的小伙伴可以点个关注,主播私人vx:lin257147

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容