Python3 book118.com文档下载(图片形式)

前言

book118截图

这样实在是吊人胃口,花钱买舍不得,有的甚至买都不让买,但又可以预览。
既然能看得见,那就肯定有办法把他下载下来,于是写了个小程序,下载网页的预览图。
由于实在太懒,思路什么的就不提了,就讲讲代码。

程序介绍

源码

import requests
import json
import re
import time
import os   # 这个库后来想想实际上可以不用
import sys
from bs4 import BeautifulSoup

# https://max.book118.com/
# made by wenz
#2019-9-11
#problems: 1.combine png->pdf 2.frenquent visit require verification 3.try/except 
#问题:1、没有加入图片自动合成pdf的功能 2、频繁的访问要求验证 3、没有写完整try/except,哪里出bug就倒霉了

def getPreviewData():
#这个函数用于获取该文档的预览数据
    aid , title = urlD()
    playload = {'g': 'Home','m': 'NewView','a': 'index','aid': aid}
    host = 'https://max.book118.com/index.php'
    rep = requests.get(host, params=playload)
    if rep.text.find('验证') != -1:
    # 过于频繁的访问返回的会是要求验证的网页,验证的代码就没写了,如果要写url在下面注释
        # reps = requests.get('https://max.book118.com//index.php?m=Public&a=verify')
        # img = reps.content
        print('need verify')
    else:
        bs = BeautifulSoup(rep.text, 'lxml')
        for sc in bs.find_all('script'):
            js = sc.get_text()
            if js.find('PREVIEW_PAGE') > -1:
                p1 = re.compile(r".+?'(.+?)'")
                js_line = js.splitlines(1)
                book = {
                    'pageAll': p1.findall(js_line[1])[0],
                    'pagePre': p1.findall(js_line[1])[1],
                    'aid': p1.findall(js_line[6])[0],
                    'viewToken': p1.findall(js_line[6])[1],
                    'title' : title
                }
                return book


def getUrlDict(book):
#这个函数用于获取文档的所有预览图片地址,输入的是文档预览数据,返回预览页面dict
    page = { 'max': int(book['pageAll']) , 'pre': int(book['pagePre']) , 'num': 1 , 'repeat': 0 }
    url_dict = {}
    while page['num'] < page['pre']:
        url = 'https://openapi.book118.com/getPreview.html'
        playload = {
            'project_id': 1,
            'aid': book['aid'],  
            'view_token': book['viewToken'], 
            'page': page['num']
        }
        rep = requests.get(url, params=playload)
        rep_dict = json.loads(rep.text[12:-2])
        if rep_dict['data'][str(page['num'])] != '': #获取得到url则更新进字典
            url_dict.update(rep_dict['data'])
            page['num'] = page['num'] + 6
            page['repeat'] = 0
        else: #获取不到url(主要是网络原因)则休息一会后重试
            if page['repeat'] > 3:
                sys.stdout.write('\r{0}'.format(str(page['num']) + " : Repeat too much.\n !get nothing, sleep 5 second."))
                sys.stdout.flush()
                time.sleep(5)
            else:
                sys.stdout.write('\r{0}'.format(str(page['num']) + " : !get nothing, sleep 2 second."))
                sys.stdout.flush()
                time.sleep(2)
            page['repeat'] = page['repeat'] + 1
    return url_dict


def saveImg(aid , num, sourceUrl):
#保存图片的函数,输入文档的aid、页数、下载地址
    # load page image 
    if int(num) < 10:
        num = '00' + num
    elif int(num) < 100:
        num = '0' + num
    url = 'http://' + sourceUrl[2:]
    rep = requests.get(url)
    image = open('./{aid}/{num}.png'.format(aid=aid,num=num), 'wb')
    image.write(rep.content)
    image.close()

def mkdir(path):
#判断图片文件夹是否存在,不存在则创建文件夹
    folder = os.path.exists(path)
    if folder != True:
        os.makedirs(path)
        print("---  new folder...  ---")
    else:
        print("---  folder exist...  ---")

def urlD():
#对输入的url进行处理(获取文档的aid),并得到文档的标题(这个好像没啥用)
    url = input("Input the book URL:")
    reg = re.compile(r".+?/(\d+?)\.shtm")
    aid = reg.findall(url)
    rep = requests.get(url)
    soup = BeautifulSoup(rep.text,'lxml')
    title = soup.title.contents[0]
    return aid,title

def main():
#程序主入口
    book = getPreviewData()
    print('\n getting %s data...'%book['title'])
    print('getting URL data...')
    url_dict = getUrlDict(book)
    print('\n---   Total: {pagea} pages, {pagep} can be downloaded   ---'.format(pagea = book['pageAll'],pagep = book['pagePre']))
    print('\n---   get %s urls success...   ---'%len(url_dict))
    flag = input('Start download? [y/n]:')
    if flag != 'n':
        mkdir('./%s' %book['aid'])
        for item in url_dict:
            try:
                saveImg(book['aid'], item, url_dict[item])
                sys.stdout.write('\r{0}'.format('download {num}/{total} success'.format(num = item , total = len(url_dict))))
                sys.stdout.flush()
            except:
                print('%s download wrong'%item)
    input("\n---   finished, the photo save in %s folder   ---"%book['aid'])

main()

使用

启动程序后黏贴文档的网页地址(如https://max.book118.com/html/2019/0912/6055004213002103.shtm
根据提示[y/n]即可

打包成了exe所以界面略丑...

然后就会下载到aid命名的文件夹里
下载的文件

分析

这个网站的主要处理逻辑是这样的:
获取文档的预览数据->获取预览图片地址->获取预览图片
有一点点绕,没办法,就只能跟他一起绕,用Chrome自带的Network监控找出处理逻辑的url和参数
然后该怎么写就怎么写就行了
程序不难写,奈何手生

问题与改进方向

1、多次的访问会要求验证,拿不到文档预览数据,验证模式搞明白了,但是好像没过多久就不用验证了,所以就没写了。
2、下载来的是命名合理的图片,其实还能加上合成pdf的函数,但是试着写了一下发现合成的pdf太大了,还是借用网站合成来的好。(强烈推荐smallpdf,在线好工具)
3、受网络条件影响挺大的,网络不好就什么都下载不到,没有写完整出错的方案,就报个错而已

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,542评论 6 504
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,822评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 163,912评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,449评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,500评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,370评论 1 302
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,193评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,074评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,505评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,722评论 3 335
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,841评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,569评论 5 345
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,168评论 3 328
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,783评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,918评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,962评论 2 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,781评论 2 354

推荐阅读更多精彩内容

  • 【Part 1: 天气的表达】 例句导入: It's easy to get passengers on rain...
    慕炜菡容阅读 1,573评论 0 7
  • 2018年3月13日上午,国务院机构改革方案提请人大会议审议,组建退役军人事务部,作为国务院组成部门。 看到这则新...
    素淡如菊阅读 653评论 0 11
  • 成功日记: 给自己一天堕落的理由,才能使自己前进的每一步都有动力 健身反思: 14天计划马甲线,可以触摸到,但是脂...
    兽兽ran阅读 333评论 0 0
  • 旭日半脸初露,儿郎薄汗轻衣透,初夏倒似三伏至,实难消受。深夜难眠池边洗,偶遇风急雨骤,忙把盆儿顶上扣,丫急...
    谦逊的清风明月阅读 186评论 0 2