爬虫: example two -- 爬取小说

摘要

爬取的目标网页是笔趣阁的飞剑问道
使用requests + xpath 的方法,xpath使用xml模块解析

说明

基本步骤如下:

  1. 使用requests获取网页内容
  2. 使用xpath提取所有的a标签,并将a标签上章节的标题和href属性的url通过字典保存起来,比如{"第一章 归来":"/18_18820/8643948.html",...}
  3. 遍历字典
        3.1 通过requests访问字典中的url,获取网页内容
        3.2 使用xpath提取小说内容
        3.3 将字典中的key(章节标题)和小说内容按一定格式写入文件中

代码实现

import requests
import os
import traceback
from lxml import etree

import requests
    import os
    import traceback
    from lxml import etree

    def getHTMLText(url, code="gbk"):
        '获取页面'
        try:
            kv = {"user-agent":"Mozilla/5.0"}
            html = requests.get(url, headers=kv)
            html.raise_for_status()
            html.encoding = code
            return html.text
        except:
            return ""

    def getNovelDict(dic, url):
        '获取各个章节的url'
        html = getHTMLText(url)
        selector = etree.HTML(html)
        try:
            global fName
            fName = selector.xpath("//div[@id='info']/h1/text()")[0]
            lists = selector.xpath("//div[@id='list']//a")
            for each in lists:
                href = each.get('href')
                string = each.text
                dic[each.text] = href
        except:
            traceback.print_exc()
            return ""

    def getContent(url):
        '获取章节内容'
        html = getHTMLText(url)
        selector = etree.HTML(html)
        content = selector.xpath("//div[@id='content']")[0]
        text = content.xpath("string(.)")
        return text

    def saveFile(text, fPath, fName):
        '保存文件'
        if not os.path.exists(fPath):
            os.mkdir(fPath)
        path = fPath + fName + ".txt"
        try:
            with open(path, "a") as f:
                text = text.replace(u'\xa0', u'') # 将’\xa0‘替换成u’ ‘空格,这个\xa0就是那个html中的&nbps空格
                # UnicodeEncodeError: 'gbk' codec can't encode character '\xa0' in position 7: illegal multibyte sequence
                f.write(text)
        except:
            traceback.print_exc()
            return ""

    def main():
        # '程序入口函数'
        baseUrl = "http://www.biquge.com.tw/"
        novelCode = "18_18820/"
        url = baseUrl + novelCode
        fPath = "novels/"
        global fName
        count = 0
        sDict = {}      # 章节名 :link
        getNovelDict(sDict, url)
        dictLen = len(sDict)
        for (key,value) in sDict.items():
            try:
                url = baseUrl + value
                content = getContent(url)
                text = key + "\n" + content + "\n"
                saveFile(text, fPath, fName)
                count += 1
                print(r"已下载" + str(count*100//dictLen) + "%")
            except:
                continue

    fName = ''
    if __name__ == '__main__':
        main()

上面代码获取了“飞剑问道”小说的内容,通过改变baseUrl和novelCode可以改变小说的获取,用过改变fPath可以改变文件的保存路径。当然,重点在于页面的分析。

分析过程:

  1. 发现小说地址http://www.biquge.com.tw/18_18820/中的18_18820其实是小说的代号,随机点击其它小说就可以发现
  2. 发现章节链接是诸如“/18_18820/8643948.html”的格式,也就是网站目录http://www.biquge.com.tw下的页面,每次只要将http://www.biquge.com.tw和章节链接拼接起来就是每一章存放的网址。可以通过requests跳转到章节地址。
  3. 提取章节内容(比较简单略)
  4. 只要在外层套一个循环遍历所有章节链接,就可以实现整本小说的获取
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 声明:本文讲解的实战内容,均仅用于学习交流,请勿用于任何商业用途! 一、前言 强烈建议:请在电脑的陪同下,阅读本文...
    Bruce_Szh阅读 12,783评论 6 28
  • 上网原理 1、爬虫概念 爬虫是什麽? 蜘蛛,蛆,代码中,就是写了一段代码,代码的功能从互联网中提取数据 互联网: ...
    riverstation阅读 8,254评论 1 2
  • 在大学毕业后闲着看电视的日子,我领会到很多,但也就局限于领会 一个大专毕业,学临床的毕业生,毕业之后想进公立医院,...
    一滴想养猫的雨阅读 226评论 0 0
  • 文/明光 今天是星期二,散步回来做好晚饭,老公问我今晚去聚会吗?我口里回答不去,心里却暗暗惊讶,他还记得我周二晚上...
    明光照耀阅读 248评论 0 0
  • 2014马上就要过去了,有些东西过去了,有些东西还一直在。自以为过去的和没有过去的都会用另外一种形式沉淀在那儿。站...
    c5de959d631b阅读 355评论 0 8