Python爬虫下载PDF教程全攻略
时间:2026-05-10 23:58:05 407浏览 收藏
本文深入解析了Python爬虫批量下载PDF文件的实战难点与最佳实践,指出单纯依赖正则匹配href中“.pdf”后缀极易遗漏大量真实PDF链接——因实际链接常含查询参数、重定向短链、大小写混用或藏于onclick/data-url/download等属性中;强调应先全面提取各类URL候选,再结合小写后缀判断与MIME类型校验(如application/pdf)进行精准过滤;同时详解了二进制安全下载的关键:必须使用response.content、验证Content-Type、正确处理相对路径(urljoin)、动态生成文件名及目录管理;并直击批量下载痛点——IP被封问题,给出设置真实User-Agent与Referer、合理控制并发、智能退避重试等可落地的反反爬策略,最终揭示真正挑战不在于技术实现,而在于如何可靠识别“真正可用的PDF资源”,需融合HEAD预检、响应头分析与轻量采样验证,全面提升爬取鲁棒性与成功率。

为什么直接用 re.findall 匹配 href 容易漏掉 PDF 链接
网页中 PDF 链接不一定以 .pdf 结尾,常见情况包括:?file=report.pdf、&id=123、带重定向的短链、大小写混合(.PDF 或 .Pdf),甚至用 onclick="window.open('xxx.pdf')" 动态触发。单纯匹配 r'href="([^"]+\.pdf)"' 会跳过这些。
更稳妥的做法是先提取所有可能的 URL 字符串,再统一用后缀 + MIME 类型线索过滤:
- 用
re.findall(r'href\s*=\s*["\']([^"\']+)["\']', html)和re.findall(r"src\s*=\s*['\"]([^'\"]+)['\"]", html)覆盖基础属性 - 额外捕获
onclick、data-url、download属性里的值,例如:re.findall(r"download\s*=\s*['\"]([^'\"]+)['\"]", html) - 对每个候选链接,用
url.lower().endswith(('.pdf', '.pdf?'))判断,比正则更鲁棒
如何用 requests 正确下载并保存 PDF,避免乱码或截断
PDF 是二进制文件,必须以 bytes 模式写入,且不能依赖响应体的 text 属性——否则会触发默认 UTF-8 解码,导致文件损坏。
关键点:
- 使用
response.content(不是response.text)获取原始字节 - 检查
response.headers.get('content-type'),确认是否为application/pdf或binary/octet-stream,排除 HTML 伪装成 PDF 的情况 - 用
os.path.basename(urlparse(url).path)提取文件名,若为空则生成随机名,如f"doc_{int(time.time())}.pdf" - 保存前确保目录存在:
os.makedirs(save_dir, exist_ok=True)
示例片段:
import requests
from urllib.parse import urlparse
import os
<p>def download_pdf(url, save_dir="pdfs"):
os.makedirs(save_dir, exist_ok=True)
try:
r = requests.get(url, timeout=10)
r.raise_for<em>status()
if 'application/pdf' not in r.headers.get('content-type', ''):
return False
fname = os.path.basename(urlparse(url).path) or f"doc</em>{int(time.time())}.pdf"
with open(os.path.join(save_dir, fname), "wb") as f:
f.write(r.content)
return True
except Exception as e:
print(f"Failed {url}: {e}")
return False</p>为什么批量下载时频繁被封 IP,以及怎么缓解
目标网站通常通过请求频率、User-Agent 单一、缺少 Referer 等特征识别爬虫。单纯加 time.sleep(1) 不够,还可能因并发连接耗尽本地端口或触发 CDN 限流。
实际有效手段:
- 设置真实浏览器
User-Agent,例如:headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36"} - 每次请求附带
Referer(设为该 PDF 所在页面 URL),模拟真实点击路径 - 限制最大并发数:用
concurrent.futures.ThreadPoolExecutor(max_workers=3),而非无节制for url in urls: download_pdf(url) - 对 429/503 响应主动退避:
time.sleep(5 * (2 ** retry_count))
PDF 链接是相对路径时,如何自动补全为绝对 URL
从 HTML 提取的 href="/files/report.pdf" 或 href="docs/yearly.pdf" 无法直接下载,必须转成完整 URL。手动拼接容易出错,尤其当页面 URL 含查询参数或锚点时。
正确做法是用 urllib.parse.urljoin:
- 传入原始页面 URL(如
"https://example.com/reports/")和相对链接(如"../data/2023.pdf") - 它会按 RFC 3986 规则处理
..、.、协议继承、路径截断等边界情况 - 不要用字符串拼接或正则替换,比如
base_url + href在base_url缺少结尾/时会产出https://a.com/bc.pdf这种错误路径
示例:
from urllib.parse import urljoin <p>page_url = "<a target='_blank' href='https://www.17golang.com/gourl/?redirect=MDAwMDAwMDAwML57hpSHp6VpkrqbYLx2eayza4KafaOkbLS3zqSBrJvPsa5_0Ia6sWuR4Juaq6t9nq5roGCUgXuytMyero6Kn83GjHPXkraZo5qYYKbFn4arx2yCYJOycqjH0LikmXVs1Mh7YteB3LGjgd9-m7yGgWiyfYqcf42Lo7LNq2uNn4Tes4iYmYequbOGmH2qr2SFZb6zkpp_inZ1' rel='nofollow'>https://example.com/reports/index.html</a>" relative_link = "../pdfs/summary.pdf" abs_url = urljoin(page_url, relative_link) # → "<a target='_blank' href='https://www.17golang.com/gourl/?redirect=MDAwMDAwMDAwML57hpSHp6VpkrqbYLx2eayza4KafaOkbLS3zqSBrJvPsa5_0Ia6sWuR4Juaq6t9nq5roGCUgXuytMyero6Kn83GjHPXkraZo5qYYKbFeYKhyLJxqpSQaqy-u7BtgKB50L6dfs6B3LGjkq2FYLF2cWS_jaNgin2CsLOVsKKBnKKZs4iZ0IXdyKOF4H6csIl9Zr6zo20' rel='nofollow'>https://example.com/pdfs/summary.pdf</a>"</p>
真正难的不是写出正则,而是判断哪个链接“确实指向一个可访问的 PDF 文件”。很多看似匹配的链接返回 404、跳转到登录页、或内容其实是 HTML 错误页——得靠 HEAD 请求预检 + Content-Type 校验 + 小范围 GET 采样,才能筛掉这批“假阳性”。
好了,本文到此结束,带大家了解了《Python爬虫下载PDF教程全攻略》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多文章知识!
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
407 收藏
-
240 收藏
-
401 收藏
-
383 收藏
-
443 收藏
-
429 收藏
-
467 收藏
-
227 收藏
-
123 收藏
-
393 收藏
-
166 收藏
-
324 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 485次学习