豆瓣读书非常入门且简易爬虫

最近学爬虫,照着学长爬中国大学排名写了个豆瓣读书小说书名的爬虫,没多爬,600本书,主要是熟悉熟悉bs4

  • Python版本:3.6
  • 所需库:
    requests
    bs4
    time
    xlwt

首先用request获取目标页面源代码

def get_page(url):
    headers = {
        'Uesr-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 '
                      '(KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'
    }
    try:
        res = requests.get(url, headers)
        # 访问失败则抛出异常
        res.raise_for_status()
        res.encoding = res.apparent_encoding
        return res.text
    except:
        return ""

第二步用美丽汤解析html,我用的解析器是lxml

def fillBooklist(blist, html):
    soup = BeautifulSoup(html, 'lxml')
    for li in soup.find("ul", "subject-list").children:
        if isinstance(li, bs4.element.Tag):
            div = li('div')[1]  # 定位到书籍信息
            book = div.find('h2').a['title']  # 定位书名
            # print(book)
            pub = div.find('div').string.strip()  # 定位出版信息,去除多余空格回车
            # print(pub)
            blist.append([book, pub])

获得书籍后填入excel,比较懒,没设置太多样式

def fillBookXls(blist):
    # 创建excel
    # 太乱了,但是懒得写多个函数设置样式嘻嘻嘻
    workbook = xlwt.Workbook(encoding='utf-8')
    worksheet = workbook.add_sheet('BookSheet')
    worksheet.col(0).width = 8000
    worksheet.col(1).width = 20000
    style1 = xlwt.XFStyle()
    style2 = xlwt.XFStyle()
    font = xlwt.Font()
    font.name = "宋体"
    font.height = 13 * 20
    alignment1 = xlwt.Alignment()
    alignment2 = xlwt.Alignment()
    alignment1.horz = xlwt.Alignment.HORZ_CENTER
    alignment1.vert = xlwt.Alignment.VERT_CENTER
    alignment2.horz = xlwt.Alignment.HORZ_LEFT
    alignment2.vert = xlwt.Alignment.VERT_CENTER
    style1.font = font
    style1.alignment = alignment1
    style2.font = font
    style2.alignment = alignment2

    # 写入excel
    worksheet.write(0, 0, "书名", style1)
    worksheet.write(0, 1, "出版信息", style1)
    for i in range(len(blist)):
        worksheet.write(i + 1, 0, blist[i][0], style1)
        worksheet.write(i + 1, 1, blist[i][1], style2)

    workbook.save('小说.xls')

完整代码

import requests
from bs4 import BeautifulSoup
import bs4
import xlwt
import time


def get_page(url):
    headers = {
        'Uesr-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 '
                      '(KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'
    }
    try:
        res = requests.get(url, headers)
        # 访问失败则抛出异常
        res.raise_for_status()
        res.encoding = res.apparent_encoding
        return res.text
    except:
        return ""


def fillBooklist(blist, html):
    soup = BeautifulSoup(html, 'lxml')
    for li in soup.find("ul", "subject-list").children:
        if isinstance(li, bs4.element.Tag):
            div = li('div')[1]  # 定位到书籍信息
            book = div.find('h2').a['title']  # 定位书名
            # print(book)
            pub = div.find('div').string.strip()  # 定位出版信息
            # print(pub)
            blist.append([book, pub])


def fillBookXls(blist):
    # 创建excel
    # 太乱了,但是懒得写多个函数设置样式嘻嘻嘻
    workbook = xlwt.Workbook(encoding='utf-8')
    worksheet = workbook.add_sheet('BookSheet')
    worksheet.col(0).width = 8000
    worksheet.col(1).width = 20000
    style1 = xlwt.XFStyle()
    style2 = xlwt.XFStyle()
    font = xlwt.Font()
    font.name = "宋体"
    font.height = 13 * 20
    alignment1 = xlwt.Alignment()
    alignment2 = xlwt.Alignment()
    alignment1.horz = xlwt.Alignment.HORZ_CENTER
    alignment1.vert = xlwt.Alignment.VERT_CENTER
    alignment2.horz = xlwt.Alignment.HORZ_LEFT
    alignment2.vert = xlwt.Alignment.VERT_CENTER
    style1.font = font
    style1.alignment = alignment1
    style2.font = font
    style2.alignment = alignment2

    # 写入excel
    worksheet.write(0, 0, "书名", style1)
    worksheet.write(0, 1, "出版信息", style1)
    for i in range(len(blist)):
        worksheet.write(i + 1, 0, blist[i][0], style1)
        worksheet.write(i + 1, 1, blist[i][1], style2)

    workbook.save('小说.xls')


if __name__ == '__main__':
    blist = []
    for i in range(30):
        page = i * 20
        url = "https://book.douban.com/tag/%E5%B0%8F%E8%AF%B4" + "?start=" + str(page) + "&type=T"
        html = get_page(url)
        fillBooklist(blist, html)
        fillBookXls(blist)
        time.sleep(2)  # 慢点爬,怕被封ip

效果

部分书名
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,640评论 6 507
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,254评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,011评论 0 355
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,755评论 1 294
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,774评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,610评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,352评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,257评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,717评论 1 315
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,894评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,021评论 1 350
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,735评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,354评论 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,936评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,054评论 1 270
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,224评论 3 371
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,974评论 2 355

推荐阅读更多精彩内容

  • Python爬虫入门(urllib+Beautifulsoup) 本文包括:1、爬虫简单介绍2、爬虫架构三大模块3...
    廖少少阅读 9,835评论 0 6
  • 上网原理 1、爬虫概念 爬虫是什麽? 蜘蛛,蛆,代码中,就是写了一段代码,代码的功能从互联网中提取数据 互联网: ...
    riverstation阅读 8,064评论 1 2
  • 声明:本文讲解的实战内容,均仅用于学习交流,请勿用于任何商业用途! 一、前言 强烈建议:请在电脑的陪同下,阅读本文...
    Bruce_Szh阅读 12,707评论 6 28
  • 这是一个适用于小白的Python爬虫免费教学课程,只有7节,让零基础的你初步了解爬虫,跟着课程内容能自己爬取资源。...
    Python编程社区阅读 10,174评论 3 10
  • 今天是我坚持写感恩日记第79天。 感恩睿哲做的手工蛋糕,分给弟弟吃,我爱你宝贝睿哲。 感恩老公在家陪我和幺儿一整天...
    可晗_2e69阅读 120评论 0 0