文本与二进制文件读写技巧全解析
时间:2025-11-07 17:04:54 381浏览 收藏
本文深入解析了文本文件与二进制文件的读写方法,强调了二者在数据存储方式上的本质区别:文本文件以特定编码的字符形式存储,而二进制文件则直接存储原始字节流。文章详细阐述了如何通过Python的`open()`函数,配合不同的模式参数(如`'r'`、`'rb'`、`'w'`、`'wb'`等),以及`with`语句,实现对这两种类型文件的读写操作。此外,针对大文件处理,提出了逐行读取、分块读取以及利用`mmap`模块进行内存映射等高效策略,并总结了文件操作中常见的错误与陷阱,如忘记关闭文件句柄、编码问题、权限不足等,提供了实用的避免方法,旨在帮助读者掌握安全、高效的文件读写技巧。
答案是文本文件以字符形式存储并依赖编码解析,二进制文件直接存储原始字节。读写时需区分模式(如'r'与'rb'),使用with语句管理资源,避免内存溢出需分块或逐行处理大文件,并注意编码、权限及模式错误。

读写文本文件和二进制文件,核心在于理解它们的数据存储方式和对应的操作模式。简单来说,文本文件处理的是字符,而二进制文件处理的是原始字节流。在编程中,这通常通过指定文件打开模式(如'r'用于文本读取,'rb'用于二进制读取)来区分,并使用相应的方法(如文本的read()会返回字符串,二进制的read()会返回字节串)进行操作。
解决方案
在我看来,掌握文件读写,最关键的是理解open()函数及其模式参数,以及with语句的妙用。这不仅能让代码更简洁,还能有效避免资源泄露。
读写文本文件
文本文件,顾名思义,是人类可读的字符序列。当我们打开一个文本文件时,系统会根据指定的编码(比如UTF-8)将字节流转换为字符。
读取文本文件: 通常,我们会用
'r'模式打开文件进行读取。如果文件编码不是系统默认的,最好明确指定encoding参数。try: with open('my_text_file.txt', 'r', encoding='utf-8') as f: content = f.read() # 读取整个文件内容为一个字符串 print("文件全部内容:\n", content) # 也可以逐行读取,尤其适合大文件 f.seek(0) # 将文件指针移回开头 print("\n逐行读取:") for line in f: print(line.strip()) # strip() 去除每行末尾的换行符 except FileNotFoundError: print("文件 'my_text_file.txt' 未找到。") except UnicodeDecodeError: print("解码错误,请检查文件编码是否为UTF-8。")写入文本文件: 写入文本文件通常使用
'w'模式(写入,会覆盖原有内容)或'a'模式(追加,在文件末尾添加内容)。# 写入模式 ('w') - 如果文件存在则清空,不存在则创建 with open('output.txt', 'w', encoding='utf-8') as f: f.write("这是第一行文本。\n") f.write("这是第二行,我正在写入一些新内容。\n") print("内容已写入 output.txt (覆盖模式)。") # 追加模式 ('a') - 在文件末尾添加内容 with open('output.txt', 'a', encoding='utf-8') as f: f.write("这是追加的第三行。\n") f.write("再加一行,看看效果。\n") print("内容已追加到 output.txt。")
读写二进制文件
二进制文件则不同,它不关心字符编码,直接操作原始字节数据。这对于处理图片、音频、视频、可执行文件等非文本数据至关重要。
读取二进制文件: 使用
'rb'模式。读取到的内容将是bytes对象。try: with open('my_image.jpg', 'rb') as f: binary_data = f.read() # 读取整个文件内容为一个bytes对象 print(f"读取到 {len(binary_data)} 字节的二进制数据。") # print(binary_data[:50]) # 打印前50个字节,看看是什么样子 except FileNotFoundError: print("文件 'my_image.jpg' 未找到。")这里我通常会用一个实际存在的图片文件来测试,比如从网上随便下载一张小图。
写入二进制文件: 使用
'wb'模式。写入的内容必须是bytes对象。# 假设我们有一些字节数据 data_to_write = b'\x48\x65\x6c\x6c\x6f\x20\x42\x69\x6e\x61\x72\x79\x21' # "Hello Binary!" 的ASCII字节表示 data_to_write += b'\x00\x01\x02\x03\x04\x05' # 额外的一些字节 with open('binary_output.bin', 'wb') as f: f.write(data_to_write) print("二进制数据已写入 binary_output.bin。") # 也可以将一个图片的字节数据写入另一个文件 # with open('my_image.jpg', 'rb') as src: # img_data = src.read() # with open('copied_image.jpg', 'wb') as dest: # dest.write(img_data) # print("图片已复制。")
文本文件和二进制文件,究竟有何本质区别?
在我看来,它们最根本的区别在于“解释”的方式。文本文件是面向字符的,它假设文件内容是由特定编码(如UTF-8, GBK)的字符组成的。当我们读取文本文件时,操作系统或编程语言会根据这个编码规则,将底层的字节序列“翻译”成我们能理解的字符。如果编码不对,就会出现乱码。比如,'你好'在UTF-8下可能是一串字节b'\xe4\xbd\xa0\xe5\xa5\xbd',但在GBK下可能是另一串字节。文本编辑器就是基于这种“翻译”来展示内容的。
而二进制文件则是面向字节的,它不进行任何字符编码的转换。文件中的每一个字节都被视为独立的原始数据。程序读取二进制文件时,得到的就是一串未经解释的字节序列(通常是bytes对象),至于这些字节代表什么,完全取决于应用程序如何去“构造”和“理解”它们。一个字节可能代表一个像素的颜色值,也可能代表一个整数的一部分,或者一个指令码。这种直接操作字节的方式,使得二进制文件可以存储任何类型的数据,但代价是失去了人类的直接可读性。你用文本编辑器打开一个图片文件,看到的只会是乱码,因为文本编辑器试图用字符编码去解释那些本来不代表字符的字节。
处理大文件时,有哪些高效的读写策略?
处理大文件时,最核心的原则是“不要一次性将整个文件读入内存”。内存是有限的,如果文件太大,很容易导致程序崩溃。我通常会采用以下几种策略:
逐行读取(文本文件): 这是最常用也最简单的策略。Python的
for line in f:结构就是为此而生。它会在每次迭代时读取一行,而不是一次性读取所有行。这对于日志文件、CSV文件等非常有效。# 示例:处理一个巨大的日志文件 def process_large_log(filepath): processed_count = 0 with open(filepath, 'r', encoding='utf-8') as f: for line_num, line in enumerate(f, 1): # 假设我们只关心包含 "ERROR" 的行 if "ERROR" in line: print(f"在第 {line_num} 行发现错误: {line.strip()}") processed_count += 1 # 模拟一些耗时操作 # time.sleep(0.001) print(f"总共处理了 {processed_count} 条错误记录。") # process_large_log('large_log.txt')分块读取(二进制文件或非结构化文本文件): 对于二进制文件,或者那些不以行为单位分割的文本文件(例如大型JSON或XML,虽然它们通常有专门的解析库),我们可以指定每次读取固定大小的块。
# 示例:分块读取一个大二进制文件 def copy_large_binary(source_path, dest_path, chunk_size=4096): # 4KB with open(source_path, 'rb') as src, open(dest_path, 'wb') as dest: while True: chunk = src.read(chunk_size) if not chunk: # 读取到文件末尾 break dest.write(chunk) print(f"文件从 {source_path} 复制到 {dest_path} 完成。") # copy_large_binary('very_large_video.mp4', 'copied_video.mp4')这种方式可以有效地控制内存使用,特别适合文件复制、哈希计算等场景。
使用
mmap模块(内存映射文件): 在某些操作系统上,可以使用mmap模块将文件的一部分或全部映射到进程的虚拟内存空间。这使得文件操作看起来就像操作内存中的字节数组一样,可以随机访问文件中的任何位置,而无需将整个文件加载到物理内存。操作系统会负责按需加载文件页。这对于需要频繁随机读写大文件的场景非常有用,但它有其平台依赖性和复杂性。import mmap import os # 假设有一个大文件 'data.bin' # with open('data.bin', 'wb') as f: # f.write(os.urandom(1024 * 1024 * 100)) # 写入100MB随机数据 try: with open('data.bin', 'r+b') as f: # r+b 读写二进制模式 # mmap.ACCESS_READ 表示只读映射 # mmap.ACCESS_WRITE 表示可写映射,但修改不会同步到磁盘 # mmap.ACCESS_COPY 表示私有拷贝,修改不会影响原文件 mm = mmap.mmap(f.fileno(), 0, access=mmap.ACCESS_READ) # 现在可以像操作字节串一样操作mm print(f"文件大小: {len(mm)} 字节") print(f"前10个字节: {mm[:10]}") print(f"从第100000个字节开始的5个字节: {mm[100000:100005]}") mm.close() except FileNotFoundError: print("文件 'data.bin' 未找到,请先创建一个大文件。") except Exception as e: print(f"mmap操作出错: {e}")mmap虽然强大,但使用时需要更小心,特别是涉及到跨平台兼容性和同步问题。
文件操作中常见的错误和陷阱有哪些,如何避免?
在我的经验中,文件操作虽然看似简单,但稍不留神就会掉进坑里。以下是一些常见的错误和我的应对之道:
忘记关闭文件句柄(或资源泄露): 这是最常见也最危险的错误。如果打开文件后忘记
f.close(),尤其是在循环或异常处理中,会导致文件句柄耗尽、文件锁定、数据丢失等问题。- 避免方法: 始终使用
with open(...) as f:语句。with语句会确保文件在代码块执行完毕后(无论是否发生异常)自动关闭,极大简化了资源管理。我的所有代码示例都体现了这一点。
- 避免方法: 始终使用
FileNotFoundError:文件不存在 当尝试打开一个不存在的文件进行读取时,会抛出此错误。- 避免方法: 在尝试读取前,可以使用
os.path.exists(filepath)来检查文件是否存在。或者,更推荐的方式是使用try-except FileNotFoundError块来优雅地处理这种情况,给用户友好的提示。
- 避免方法: 在尝试读取前,可以使用
PermissionError:权限不足 当程序尝试在没有足够权限的目录下创建、写入或读取文件时,会发生此错误。例如,尝试写入C盘根目录或/root目录。- 避免方法: 确保程序运行的用户拥有目标文件或目录的相应权限。在生产环境中,不要使用root或管理员权限运行不必要的程序。在开发时,注意文件路径的选择。
UnicodeDecodeError/UnicodeEncodeError:编码问题 这是处理文本文件时最让人头疼的问题。当读取一个文件时,如果指定的encoding与文件的实际编码不符,或者写入时,字符串中包含无法用指定编码表示的字符,就会出现这些错误。- 避免方法:
- 读取时: 尽可能明确指定
encoding='utf-8',因为UTF-8是目前最通用的编码。如果仍报错,可以尝试encoding='gbk'或其他常见编码。如果实在不确定,可以尝试errors='ignore'或errors='replace'(但这会丢失数据,不推荐用于关键数据)。更好的做法是,尝试使用chardet等库来猜测文件编码,但它并非100%准确。 - 写入时: 同样明确指定
encoding='utf-8'。确保要写入的字符串只包含该编码支持的字符。
- 读取时: 尽可能明确指定
- 避免方法:
模式选择错误: 例如,用
'r'模式打开文件后尝试写入,或者用'w'模式打开后期望保留原有内容。- 避免方法: 仔细检查
open()函数的模式参数:'r':只读(默认)。'w':只写,如果文件存在则覆盖,不存在则创建。'a':追加,如果文件存在则在末尾写入,不存在则创建。'x':独占创建,如果文件已存在则会报错。'r+':读写,文件必须存在。'w+':读写,如果文件存在则覆盖,不存在则创建。'a+':读写,在文件末尾追加。- 二进制模式则在上述模式后加上
'b',如'rb','wb','r+b'。
- 避免方法: 仔细检查
缓冲区(Buffering)问题: 写入文件时,数据通常不会立即写入磁盘,而是先存储在内存缓冲区中。这提高了I/O效率,但也意味着程序崩溃时,缓冲区中的数据可能丢失。
- 避免方法:
- 使用
f.flush()强制将缓冲区内容写入磁盘。 - 使用
os.fsync(f.fileno())(更强力的同步,确保数据写入物理存储)。 - 当然,
with open(...)会在文件关闭时自动flush,所以大部分情况下无需手动处理。但在需要高度数据一致性的场景(如数据库事务日志),可能需要考虑手动刷新。
- 使用
- 避免方法:
总之,文件操作需要细心,多用try-except处理潜在错误,并始终记住with语句是你的好朋友。
文中关于文件读写,文本文件,with语句,二进制文件,open()函数的知识介绍,希望对你的学习有所帮助!若是受益匪浅,那就动动鼠标收藏这篇《文本与二进制文件读写技巧全解析》文章吧,也可关注golang学习网公众号了解相关技术文章。
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
427 收藏
-
149 收藏
-
190 收藏
-
264 收藏
-
293 收藏
-
450 收藏
-
354 收藏
-
248 收藏
-
291 收藏
-
478 收藏
-
222 收藏
-
275 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 485次学习