网页内嵌PDF获取的办法

最近女王大人为了通过某认证考试,较了2000RMB,官方居然没有给线下教材资料,直接给的是在线教材,教材是PDF的但是是内嵌在网页内,可惜却没有给具体的PDF地址,无法下载,看到女王大人一点点的截图保存,深感心痛。思考能否通过脚本实现爬取网页内嵌的PDF并完成下载。

思路:

  1. 查看网页源代码,找寻PDF文件地址。很多时候,网站会在网页源代码中隐藏PDF文件的直接下载地址,我们可以通过查找关键字like ".pdf"找到该地址,然后直接下载。
  2. 使用浏览器开发者工具分析网络请求,找寻PDF文件地址。当我们访问网页时,浏览器会自动发出许多网络请求,其中很可能包含PDF文件的请求,我们可以通过分析找到请求URL并下载。
  3. 使用爬虫程序自动分析网页并下载PDF。我们可以编写爬虫程序使用Requests库访问网页,自动解析网页源代码和网络请求,一旦发现PDF文件请求就进行下载。

首先通过网页源码,查找PDF文件失败,继而转为使用python进行爬取。
使用Requests获取网页内容:

import requests

url = "目标网页地址"
response = requests.get(url)
html = response.text

解析网页源码找寻PDF地址:

import re

pattern = re.compile(r'http.*?.pdf')  
result = pattern.findall(html)
pdf_url = result[0]  # 获取第一个匹配结果

下载PDF文件:

import requests

pdf_response = requests.get(pdf_url)
with open("pdf文件.pdf", "wb") as f:
    f.write(pdf_response.content)

将上述脚本代码的思路整合行程统一执行脚本:

python
import requests
import re

url = "目标网页地址"
response = requests.get(url)
html = response.text

pattern = re.compile(r'http.*?.pdf')  
result = pattern.findall(html)
pdf_url = result[0]

pdf_response = requests.get(pdf_url)
with open("course.pdf", "wb") as f:
    f.write(pdf_response.content)

print("PDF文件已下载!")

执行结果不理想,代码报错

pdf_url = result[0]
              ~~~~~~^^^
IndexError: list index out of range

报错原因分析可能原因:

  1. 网页源码中不存在PDF URL,正则表达式无法匹配,result为空列表。
  2. 正则表达式匹配模式错误,无法正确匹配PDF URL,导致result为空列表。

通过重新打开浏览器打开目标网页地址,发现跳转至了首页,并且处于未登陆状态。开来要完成PDF爬取还需增加对网站当前账号的cookie,session,token等信息的获取,而这些信息基本都是通过浏览器开发者工具获取。
有点复杂,既然又转回开发者工具,那么转变思路,通过控制台命令的方式来进行PDF爬取试试。
开发者调试模式-控制台命令:

let pdf_url = "";
document.querySelectorAll("iframe, object, embed").forEach(element => {
    if (element.src.includes(".pdf")) {
        pdf_url = element.src;
    }
});
console.log(pdf_url);

执行结果反馈了PDF的绝对地址,使用浏览器能正常打开该PDF文件,使用下载工具完成PDF的下载。

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容