登录
首页 >  文章 >  python教程

Python大文件分块读取与内存优化方法

时间:2026-03-22 22:18:34 246浏览 收藏

本文深入剖析了Python高效处理超大TXT文件的核心策略——通过`open()`配合`read(size)`进行字节级分块读取,强调使用`'rb'`模式、2的幂次缓冲大小(如65536)以兼顾性能与系统友好性,彻底规避按行读取导致的内存溢出和卡顿风险;同时直击UTF-8多字节字符截断痛点,提供安全回退、边界对齐及`codecs.iterdecode()`等实用解法,并澄清`mmap`在内存优化上的常见误区,指出其不减实际内存占用的本质,最后提醒关注底层I/O细节(如页对齐、缓冲区设置)与真实内存监控,助你真正实现低开销、高可控的大文件流式处理。

Python如何读取超大TXT_按固定字节分块读取与内存占用优化

open() 配合 read(size) 是最直接的分块读取方式

Python 默认的 open() 是缓冲 IO,但只要不调用 readlines() 或一次性 read(),就能避免把整个文件拖进内存。关键在控制每次读多少字节,而不是按行——因为超大 TXT 往往没换行或换行符不规律,按行容易卡死或 OOM。

实操建议:

  • 始终用 mode='rb' 打开,避免编码解析开销;解码留到后续处理块内(如需)
  • size 建议设为 8192、65536 等 2 的幂,对大多数文件系统更友好
  • 不要用 for line in f: —— 它底层仍会预读缓冲区,且无法控制字节数
  • 示例:
    with open('huge.txt', 'rb') as f:
        while True:
            chunk = f.read(65536)
            if not chunk:
                break
            # 处理 chunk,比如写入临时文件或提取字段
    

遇到中文/UTF-8 编码断裂怎么办

按字节读时,很可能在多字节字符中间截断,比如 UTF-8 中一个汉字占 3 字节,read(65536) 刚好停在第 2 字节处,后续 .decode('utf-8') 就抛 UnicodeDecodeError: invalid continuation byte

解决思路不是“全量读完再解码”,而是“安全回退 + 边界对齐”:

  • 每次读完先检查末尾是否为完整 UTF-8 序列:用 chuck[-3:].decode('utf-8', errors='ignore') 看长度变化,或更准地用 surrogateescape 错误处理器保留原始字节
  • 更稳妥的做法是:预留最后 1~3 字节不处理,和下一块拼接后再解码;或者用 io.TextIOWrapper 包一层,但它会牺牲“精确字节控制”优势
  • 如果业务允许,改用 codecs.iterdecode() + iter(lambda: f.read(65536), b'') 组合,它内部会处理边界

mmap 适合只读、随机访问场景,但不省内存

有人看到“大文件”就想到 mmap,但它只是把文件映射成虚拟内存地址,并不减少 RSS 占用——操作系统仍可能把访问过的页加载进物理内存。真要压内存,mmap 反而更容易触发 swap。

适用条件很窄:

  • 你需要频繁跳转读某几段(比如查索引表),而不是顺序扫一遍
  • 文件在本地磁盘,且你信任 OS 的 page cache 策略
  • 不用 mmap 时已经确认 read() 调用本身成了瓶颈(少见)
  • 示例:
    import mmap
    with open('huge.txt', 'rb') as f:
        with mmap.mmap(f.fileno(), 0, access=mmap.ACCESS_READ) as mm:
            # mm[1000000:1000100] 直接切片取字节
    

别忽略 buffering 参数和系统页大小的影响

默认 open(..., buffering=-1) 会让 Python 选系统默认缓冲区(通常是 8KiB),但如果你手动设了 buffering=0(仅限二进制模式),就会禁用缓冲——每次 read() 都触发一次系统调用,I/O 次数暴增,速度反而暴跌。

还有两个隐形坑:

  • Linux 下 read() 实际最小单位是页大小(通常 4KiB),你设 read(100),内核仍可能读一页,只是 Python 只返回前 100 字节——剩余字节留在内核缓冲里,下次 read() 会先返回它们
  • SSD/NVMe 对齐读取(如 4K 对齐)有性能优势,所以 size 设为 4096 的倍数比设成 10000 更稳
  • Windows 上 \\?\ 前缀可绕过路径长度限制,但和分块读无关,别乱加

实际跑起来你会发现:真正卡住的往往不是 Python,而是磁盘吞吐、编码校验、或者下游处理逻辑。字节分块只是第一关,后面每一步都得盯着 toppsutil.Process().memory_info().rss 看真实占用。

以上就是本文的全部内容了,是否有顺利帮助你解决问题?若是能给你带来学习上的帮助,请大家多多支持golang学习网!更多关于文章的相关知识,也可关注golang学习网公众号。

资料下载
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>