Python爬虫批量下载PDF教程
时间:2026-05-16 10:19:20 495浏览 收藏
本文深入解析了Python爬虫批量下载PDF文件的核心难点与实战方案:从精准提取各类隐藏PDF链接(如带参数、重定向、大小写混用或动态触发的URL),到通过MIME类型校验和绝对路径补全确保链接有效性;从严格使用二进制模式保存避免文件损坏,到通过真实请求头、限速并发、智能退避等策略规避反爬封禁;最终强调——真正关键的不是正则匹配技巧,而是用HEAD预检、Content-Type验证和小样本采样层层过滤“假阳性”链接,从而实现稳定、鲁棒、生产级的PDF批量采集。

为什么直接用 re.findall 匹配 href 容易漏掉 PDF 链接
网页中 PDF 链接不一定以 .pdf 结尾,常见情况包括:?file=report.pdf、&id=123、带重定向的短链、大小写混合(.PDF 或 .Pdf),甚至用 onclick="window.open('xxx.pdf')" 动态触发。单纯匹配 r'href="([^"]+\.pdf)"' 会跳过这些。
更稳妥的做法是先提取所有可能的 URL 字符串,再统一用后缀 + MIME 类型线索过滤:
- 用
re.findall(r'href\s*=\s*["\']([^"\']+)["\']', html)和re.findall(r"src\s*=\s*['\"]([^'\"]+)['\"]", html)覆盖基础属性 - 额外捕获
onclick、data-url、download属性里的值,例如:re.findall(r"download\s*=\s*['\"]([^'\"]+)['\"]", html) - 对每个候选链接,用
url.lower().endswith(('.pdf', '.pdf?'))判断,比正则更鲁棒
如何用 requests 正确下载并保存 PDF,避免乱码或截断
PDF 是二进制文件,必须以 bytes 模式写入,且不能依赖响应体的 text 属性——否则会触发默认 UTF-8 解码,导致文件损坏。
关键点:
- 使用
response.content(不是response.text)获取原始字节 - 检查
response.headers.get('content-type'),确认是否为application/pdf或binary/octet-stream,排除 HTML 伪装成 PDF 的情况 - 用
os.path.basename(urlparse(url).path)提取文件名,若为空则生成随机名,如f"doc_{int(time.time())}.pdf" - 保存前确保目录存在:
os.makedirs(save_dir, exist_ok=True)
示例片段:
import requests
from urllib.parse import urlparse
import os
<p>def download_pdf(url, save_dir="pdfs"):
os.makedirs(save_dir, exist_ok=True)
try:
r = requests.get(url, timeout=10)
r.raise_for<em>status()
if 'application/pdf' not in r.headers.get('content-type', ''):
return False
fname = os.path.basename(urlparse(url).path) or f"doc</em>{int(time.time())}.pdf"
with open(os.path.join(save_dir, fname), "wb") as f:
f.write(r.content)
return True
except Exception as e:
print(f"Failed {url}: {e}")
return False</p>为什么批量下载时频繁被封 IP,以及怎么缓解
目标网站通常通过请求频率、User-Agent 单一、缺少 Referer 等特征识别爬虫。单纯加 time.sleep(1) 不够,还可能因并发连接耗尽本地端口或触发 CDN 限流。
实际有效手段:
- 设置真实浏览器
User-Agent,例如:headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36"} - 每次请求附带
Referer(设为该 PDF 所在页面 URL),模拟真实点击路径 - 限制最大并发数:用
concurrent.futures.ThreadPoolExecutor(max_workers=3),而非无节制for url in urls: download_pdf(url) - 对 429/503 响应主动退避:
time.sleep(5 * (2 ** retry_count))
PDF 链接是相对路径时,如何自动补全为绝对 URL
从 HTML 提取的 href="/files/report.pdf" 或 href="docs/yearly.pdf" 无法直接下载,必须转成完整 URL。手动拼接容易出错,尤其当页面 URL 含查询参数或锚点时。
正确做法是用 urllib.parse.urljoin:
- 传入原始页面 URL(如
"https://example.com/reports/")和相对链接(如"../data/2023.pdf") - 它会按 RFC 3986 规则处理
..、.、协议继承、路径截断等边界情况 - 不要用字符串拼接或正则替换,比如
base_url + href在base_url缺少结尾/时会产出https://a.com/bc.pdf这种错误路径
示例:
from urllib.parse import urljoin <p>page_url = "<a target='_blank' href='https://www.17golang.com/gourl/?redirect=MDAwMDAwMDAwML57hpSHp6VpkrqbYLx2eayza4KafaOkbLS3zqSBrJvPsa5_0Ia6sWuR4Juaq6t9nq5roGCUgXuytMyero6Kn83GjHPXkraZo5qYYKbFn4arx2yCYJOycqjH0LikmXVs1Mh7YteB3LGjgd9-m7yGgWiyfYqcf42Lo7LNq2uNn4Tes4iYmYequbOGmH2qr2SFZb6zkpp_inZ1' rel='nofollow'>https://example.com/reports/index.html</a>" relative_link = "../pdfs/summary.pdf" abs_url = urljoin(page_url, relative_link) # → "<a target='_blank' href='https://www.17golang.com/gourl/?redirect=MDAwMDAwMDAwML57hpSHp6VpkrqbYLx2eayza4KafaOkbLS3zqSBrJvPsa5_0Ia6sWuR4Juaq6t9nq5roGCUgXuytMyero6Kn83GjHPXkraZo5qYYKbFeYKhyLJxqpSQaqy-u7BtgKB50L6dfs6B3LGjkq2FYLF2cWS_jaNgin2CsLOVsKKBnKKZs4iZ0IXdyKOF4H6csIl9Zr6zo20' rel='nofollow'>https://example.com/pdfs/summary.pdf</a>"</p>
真正难的不是写出正则,而是判断哪个链接“确实指向一个可访问的 PDF 文件”。很多看似匹配的链接返回 404、跳转到登录页、或内容其实是 HTML 错误页——得靠 HEAD 请求预检 + Content-Type 校验 + 小范围 GET 采样,才能筛掉这批“假阳性”。
本篇关于《Python爬虫批量下载PDF教程》的介绍就到此结束啦,但是学无止境,想要了解学习更多关于文章的相关知识,请关注golang学习网公众号!
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
398 收藏
-
332 收藏
-
103 收藏
-
417 收藏
-
328 收藏
-
489 收藏
-
187 收藏
-
495 收藏
-
447 收藏
-
182 收藏
-
401 收藏
-
249 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 485次学习