Python爬虫-网络小说

初识Python,本章主要做一下学习记录,如有错误,欢迎斧正,欢迎大神拍砖

爬虫步骤:

  • 确定爬取目标
  • 分析页面
  • 抓取页面内容,解析目标字段
  • 保存目标
1. 确定爬取目标

如题,今天需要爬取全书网,也就是这个页面

2. 分析页面

反向推理一下,需要获取到具体内容,需要拿到正文页面url
而需要获取到正文页面的url,则需要先拿到章节列表的url
而章节列表的url,前提有是当前书籍的首页
总结一下
小说网书库-->书籍首页-->章节列表-->章节内容-->下载保存

  • 书籍首页
    分析首页,我们需要的就是href里的书籍首页链接
    这里使用正则匹配

<li><a target="_blank" href="http://www.quanshuwang.com/book_137459.html" class="l mr10"><img onerror="this.src='/modules/article/images/nocover.jpg'" src="http://img.quanshuwang.com/image/137/137459/137459s.jpg" alt="法家高徒" width="120" height="150"></a><img src="/kukuku/images/only2.png" class="topss png_bg"><span class="l"><a target="_blank" title="法家高徒" href="http://www.quanshuwang.com/book_137459.html" class="clearfix stitle">法家高徒</a>作者:<a href="/modules/article/authorarticle.php?author=%CA%FA%D7%D3%B2%BB%BF%C9%BD%CC">竖子不可教</a><em class="c999 clearfix"> 百家争鸣,鬼神显圣,武道昌盛的大争之世。记忆达人司徒刑...<a href="http://www.quanshuwang.com/book_137459.html">更多</a></em><a href="http://www.quanshuwang.com/book_137459.html" class="readTo">马上阅读</a></span></li>

.*?表示替换,(.*?)表示获取内容,下面这个正则,表示获取所以的<li></li>标签里面的href的内容

regex = r'<li><a target=".*?" href=".*?" class=".*?"><img onerror=".*?" src=".*?" alt=".*?" width=".*?" height=".*?"></a><img src=".*?" class=".*?"><span class=".*?"><a target=".*?".*?" href="(.*?)" class=".*?">.*?</a>.*?<a href=".*?">.*?<em class=".*?">.*?<a href=".*?">.*?</a></em><a href=".*?".*?">.*?</a></span></li>'

# 爬取书籍首页
def getEveryBookHomeURL(pages):

    print('正在解析单个图书首页...')
    book_homes =[]
    for page in pages:
        page_response = requests.get(page)
        page_response.encoding = 'gbk'
        if page_response.status_code == 200:
            # print(page_response.text)
            
            regex = r'<li><a target=".*?" href=".*?" class=".*?"><img  onerror=".*?" src=".*?" alt=".*?" width=".*?" height=".*?"></a><img src=".*?" class=".*?"><span class=".*?"><a target=".*?".*?" href="(.*?)" class=".*?">.*?</a>.*?<a href=".*?">.*?<em class=".*?">.*?<a href=".*?">.*?</a></em><a href=".*?".*?">.*?</a></span></li>'
            urls = re.findall(regex, page_response.text)
            for url in urls:
                book_homes.append(url)
爬取单本书籍
  • 章节列表
    依然通过正则匹配,获取到每一章节的链接
# 爬取书籍阅读页面(带章节列表)
def getEveryBookReaderURL(homes):

    print('正在解析图书章节列表...')

    pages =[]
    for book_home in homes:

        book_response = requests.get(book_home)
        book_response.encoding = 'gbk'
        if book_response.status_code == 200:
            # <a href="http://www.quanshuwang.com/book/0/269" class="reader" title="凡人修仙传免费阅读">开始阅读</a>
            regex = r'<a href="(.*?)" class=".*?" title=".*?">.*?</a>'
            urls = re.findall(regex, book_response.text)
            if len(urls) > 0:
                pages.append(urls[0])

# 解析书籍章节列表
def getBookContent(book_home_url):
    '''
    book_home_response = urllib.request.urlopen(book_home_url)
    if book_home_response.status == 200:
        print(book_home_response.read().decode('gbk'))
    :return:
    '''

    print('正在爬取书籍章节...')
    # 网络请求
    book_home_response = requests.get(book_home_url)
    # 中文编码
    book_home_response.encoding = 'gbk'
    # 判断是否请求成功
    if book_home_response.status_code == 200:
        # 开始解析
        '''
        准备正则表达式
        1: 需要解析的内容结构  <li><a href="http://www.quanshuwang.com/book/0/567/7347707.html" title="第一章 离乡,共2405字">第一章 离乡</a></li>
        2: 需要的内容用通配符 (.*? 匹配所有);用(.*?)括号扩起来的,才是会解析出来的
        3: <li><a href="(.*?)" title=".*?">(.*?)</a></li>
        '''
        regex = r'<li><a href="(.*?)" title=".*?">(.*?)</a></li>'
        # 解析的数据,放到list里面
        urls_titles = re.findall(regex,book_home_response.text)
        book_titles = re.findall(r'<strong>(.*?)</strong>',book_home_response.text)
        book_title = book_titles[0]
爬取单本书籍章节列表

爬取单张链接
  • 章节内容
# 下载章节
def downloadChapter(url, chaper_title, book_title):

    # 网络请求
    chaper_response = requests.get(url)
    # 中文编码
    chaper_response.encoding = 'gbk'
    # 判断是否请求成功
    if chaper_response.status_code == 200:
        # 开始解析
        regex = r'</script>&nbsp;&nbsp;&nbsp;&nbsp;(.*?)<script type="text/javascript">'
        regex = re.compile(regex,re.S)
        list_text = re.findall(regex,chaper_response.text)
        chaper_text = list_text[0]
        # 替换文案中的特殊字符
        chaper_text = chaper_text.replace('<br />','')
        chaper_text = chaper_text.replace('&nbsp;&nbsp;&nbsp;&nbsp;','')
        chaper_text = chaper_text.replace(';','')

        writerTo(book_title,chaper_title, chaper_text)
爬取单张内容
  • 下载保存
# 写入本地文件
def writerTo(book_title, chaper_title, text):

    book_path = download_books_dictory_path + '{}.txt'.format(book_title)
    path = pathlib.Path(book_path)
    if path.exists():
        print('{}:已下载'.format(book_title))
    else:
        print('正在下载:' + book_title + ' ' + chaper_title)
        with open(book_path, 'a+') as f:
            f.write(chaper_title)
            f.write('\n\n\n')
            f.write(text)
            f.write('\n\n\n')
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,142评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,298评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,068评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,081评论 1 291
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,099评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,071评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,990评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,832评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,274评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,488评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,649评论 1 347
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,378评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,979评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,625评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,796评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,643评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,545评论 2 352

推荐阅读更多精彩内容

  • 声明:本文讲解的实战内容,均仅用于学习交流,请勿用于任何商业用途! 一、前言 强烈建议:请在电脑的陪同下,阅读本文...
    Bruce_Szh阅读 12,700评论 6 28
  • Android 自定义View的各种姿势1 Activity的显示之ViewRootImpl详解 Activity...
    passiontim阅读 172,059评论 25 707
  • 用两张图告诉你,为什么你的 App 会卡顿? - Android - 掘金 Cover 有什么料? 从这篇文章中你...
    hw1212阅读 12,711评论 2 59
  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 134,651评论 18 139
  • 夜阑人静,与妻子谈了好多。与其说是闲谈,倒不如说是两人心灵与思想的交流。既有过去的回忆,又有现实的思考,还有未来的...
    罗马漫步阅读 265评论 0 0