Python流式下载内存优化技巧
时间:2026-02-17 23:32:42 466浏览 收藏
本文深入剖析了Python中使用requests进行大文件流式下载时的关键内存优化策略,直击“不加stream=True导致内存暴增甚至OOM”的痛点,强调必须显式启用流模式并科学分块读取;详解iter_content(8192)为何是兼顾性能、内存与稳定性的黄金选择,对比手动write与shutil.copyfileobj()在容错性上的本质差异,并揭露超时与重试机制在流场景下的常见误区——真正决定下载健壮性的,不是代码行数,而是对网络中断、磁盘满、空闲超时、重定向陷阱等真实边界问题的系统性应对。

requests.get() 不加 stream=True 会吃光内存
直接用 requests.get("https://big-file.com/data.zip") 下载大文件,响应体默认全部加载进内存,哪怕文件 500MB,Python 进程 RSS 就可能瞬间涨到 600MB+,还容易触发 OOM。这不是 bug,是 requests 的默认行为——它得帮你把 response.content 准备好。
必须显式打开流模式:requests.get(url, stream=True)。这之后 response.content 不再可用(会触发读取整个响应的副作用),你得靠 response.iter_content() 或手动调 response.raw 分块读。
- 不加
stream=True:适合小响应(10MB,就别碰 - 加了之后:必须自己管理读取循环,不能依赖
.json()或.text(它们会强制读完) - 注意:HTTP 重定向(302)默认会被 requests 自动跟随,且跟随后的响应也受
stream=True控制——这点常被忽略,导致你以为开了流,其实重定向后又全载入了
iter_content(chunk_size=8192) 是最稳的分块读法
response.iter_content() 是 requests 官方推荐的流式读取方式,比直接读 response.raw 更安全:它自动处理压缩(如 gzip)、解码、连接中断重试逻辑(在 chunk 级别)。
关键在 chunk_size 参数——不是越大越好,也不是越小越省。实测 8KB(8192)是多数场景下的甜点值:
chunk_size=1:系统调用太频繁,CPU 负担翻倍,吞吐反而下降chunk_size=1024*1024(1MB):单次分配大 buffer,GC 压力大;网络抖动时,一整块卡住,延迟感知明显chunk_size=8192:平衡内存占用、系统调用次数和缓存友好性;SSD/HDD 写入也更顺- 如果目标是边下边解压(如 tar.gz),建议保持
chunk_size为 8192,并用zlib.decompressobj()流式解压,不要攒满再解
用 shutil.copyfileobj() 替代手动 write() 更可靠
很多人写流式下载,习惯这么干:
for chunk in response.iter_content(8192):
f.write(chunk)
看起来没问题,但漏掉了两个现实问题:磁盘满、权限拒绝。这些错误在 f.write() 时才抛,而此时 chunk 已经从 socket 读出、丢在内存里了——你没法优雅回退。
shutil.copyfileobj() 内部做了缓冲区复用,且对 IOError 更敏感,更重要的是:它支持传入 length 参数控制总拷贝上限,能防磁盘爆满。
- 正确写法:
shutil.copyfileobj(response.raw, f, length=8192) - 必须用
response.raw(不是response),否则压缩中间层可能干扰 - 确保
f是以wb模式打开的,且没开 buffering(buffering=0在二进制模式下无效,别试) - 如果要校验 hash,别在写入时算——先写临时文件,写完再
hashlib.blake2b(f.read()),避免 IO 和 CPU 绑死
超时和重试必须分开配,别只设 timeout=(3, 30)
timeout=(3, 30) 只控制单次请求的 connect + read 超时,对流式下载几乎没用:read 超时是从第一个字节开始计,但大文件传输中,可能前 10 秒有数据,后面卡住 2 分钟——这时 timeout 不会中断。
真正需要的是「空闲超时」+ 「重试策略」:
- 用
requests.adapters.HTTPAdapter(pool_connections=10, pool_maxsize=10, max_retries=3)配连接池和重试 - 手动监控读取间隔:记录上一次
iter_content()返回非空 chunk 的时间,超过 60 秒无新数据,就主动response.close()并重试 - 别依赖
requests.packages.urllib3.util.retry.Retry的status_forcelist来重试 503——流式响应一旦发了 header,503 就不会来了,得靠空闲检测
流式下载的麻烦不在代码长短,而在边界是否被想全:网络断了怎么续、磁盘满了怎么停、服务端悄悄关连接你怎么感知。这些没写进文档,但每次上线都会撞上。
到这里,我们也就讲完了《Python流式下载内存优化技巧》的内容了。个人认为,基础知识的学习和巩固,是为了更好的将其运用到项目中,欢迎关注golang学习网公众号,带你了解更多关于的知识点!
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
103 收藏
-
268 收藏
-
420 收藏
-
285 收藏
-
399 收藏
-
379 收藏
-
295 收藏
-
272 收藏
-
102 收藏
-
451 收藏
-
118 收藏
-
146 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 485次学习