python 爬虫练习(一)

通过python 爬虫 爬取小说

使用python版本为3.6  

模块为 Requests,BeautifulSoup

通过此次爬取小说 来练习 Requests及BeautifulSoup 模块用法

小说url=‘http://www.23us.com/html/63/63392/’

第一步  通过 Requests 来获取到网页源代码

url = "http://www.23us.com/html/63/63392/"

reObj = requests.get(url)

我们运行测试一下

Response[200]说明 成功

接下来 使用Beautifulsoup 来获取网页源代码

bsObj = BeautifulSoup(reObj.text,'html.parser')

print(bsObj)


运行发现 网页源代码成功获取得到,但编码有问题,所以我们需要改变编码。

可以使用reObj.encoding 来获取网页的编码格式

然后修改代码

url ='http://www.23us.com/html/63/63392/25724970.html'

reObj = requests.get(url)

html = reObj.text.encode('ISO-8859-1').decode('gbk')

bsObj = BeautifulSoup(html,'html.parser')

print (bsObj)

运行试一试效果

中文已经可以显示出来。

接下来,我们就需要对源码进行筛选,筛选出我们需要的东西

章节名以及章节链接

右键审查元素 找到所需要的章节目录的代码

查看发现小说章节目录都存放在 td 列表标签内。

所以可以通过BeautifulSoup的find_all方法来找到td标签

代码如下:

for data in bsObj.find_all('td'):

    if (data.a) !=None :

        url_list += [(data.a.get('href'))]

为什么要用 if 来判断呢? 因为我发现由于在最后面有两个 td 标签中并没有我们想要的数据

在遍历的过程中会出现None 导致程序错误,所以我使用了一个if 来判断是否为空值

url_list 是一个列表 用来存放 找到的 章节链接

那么接下来就应该要开始获取各个章节的内容了。而发现url_list 中的url 并不是一个完整的url链接,所以我们需要通过字符串拼接之后再获取各个章节的页面。同样,我们需要改变编码和解码方式,使显示正确。

for item in url_list:

    tabel_url = (url +item)

    reObj_ta = requests.get(tabel_url)

    html_ta = reObj_ta.text.encode('ISO-8859-1').decode('gbk')

    bsObj_ta = BeautifulSoup(html_ta,'html.parser')

遍历 url_list  字符串拼接上url  然后通过requests BeautifulSoup 获取网页源代码

离成功只有最后一步了,继续右键审查元素,找到章节名和文章的标签,筛选出来就可以了。


相应筛选标签的代码

article = bsObj_ta.find_all('dd',id="contents")

for content in article:

    content.get_text()

title = bsObj_ta.find('h1').get_text()


运行后获取到的内容


可以发现正文部分还是有一些标签存在,这里我使用的是操作字符串的strip 以及replace来进行数据清洗



最后再将所爬取的小说内容,存放到txt中,方便阅读

with open ("G:/yinianyongheng.txt",'a',encoding='utf-8') as f:

f.write(title + '\n')

f.write(content +'\n')


完整代码截图

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 声明:本文讲解的实战内容,均仅用于学习交流,请勿用于任何商业用途! 一、前言 强烈建议:请在电脑的陪同下,阅读本文...
    Bruce_Szh阅读 12,788评论 6 28
  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 134,993评论 19 139
  • 在上一篇中 , 我们构建了一个爬虫, 可以通过跟踪链接的方式下载我们所需的网页。 但是爬虫在下载网页之后又将 结果...
    枫灬叶阅读 1,973评论 0 5
  • 此时的谷浑王,依旧是奉行两边称臣的外交政策,试图两边讨好,不得罪任何一方。 吐谷浑王这样做,是自认为这样不但可以得...
    清书_阅读 691评论 0 51
  • 多事之周。 工作 写发言稿越来越顺了,把自己当成那个风光无限的主讲人就好。 公司的语音转写之风不知从何而来,略为不...
    柳不浪阅读 132评论 0 0