Python高效读写Parquet文件技巧
时间:2025-08-12 22:22:57 150浏览 收藏
文章小白一枚,正在不断学习积累知识,现将学习到的知识记录一下,也是将我的所得分享给大家!而今天这篇文章《Python用pyarrow高效读写Parquet文件》带大家来了解一下##content_title##,希望对大家的知识积累有所帮助,从而弥补自己的不足,助力实战开发!
最核心且高效的工具是pyarrow库,1. 使用pyarrow可将Pandas DataFrame转换为Table对象并写入Parquet文件;2. 通过pq.read_table读取数据,支持列筛选和高效过滤;3. Parquet采用列式存储,相比CSV或JSON能大幅减少I/O开销,提升查询效率,尤其适合大数据场景下的高性能数据处理。
Python操作Parquet文件,最核心且高效的工具就是pyarrow
库。它不仅提供了与底层Apache Arrow C++库无缝对接的性能优势,还能让你以非常灵活的方式处理各种数据结构,无论是简单的表格数据还是复杂的嵌套类型。可以说,在Python的数据生态里,pyarrow
是处理Parquet文件的首选。
要用pyarrow
读写Parquet文件,基本流程其实挺直观的。
先说写。通常,我们会把数据转换成pyarrow.Table
对象。这玩意儿就像一个内存中的表格,包含了列名、数据类型以及实际的数据。
import pyarrow as pa import pyarrow.parquet as pq import pandas as pd import numpy as np # 假设我们有一些数据,可以是Pandas DataFrame data = { 'id': [1, 2, 3, 4], 'name': ['Alice', 'Bob', 'Charlie', 'David'], 'value': [10.5, 20.1, 15.0, 25.8], 'timestamp': pd.to_datetime(['2023-01-01', '2023-01-02', '2023-01-03', '2023-01-04']) } df = pd.DataFrame(data) # 将Pandas DataFrame转换为pyarrow Table # 这一步很关键,pyarrow会自动推断Pandas的类型到Arrow类型 table = pa.Table.from_pandas(df) # 写入Parquet文件 # 这里可以指定压缩方式,比如'snappy'、'gzip'、'brotli'、'zstd' # 'snappy'通常是性能和压缩比的良好平衡 pq.write_table(table, 'my_data.parquet', compression='snappy') print("数据已成功写入 my_data.parquet") # 如果想分块写入,或者处理非常大的文件,可以考虑ParquetWriter # with pq.ParquetWriter('large_data.parquet', table.schema) as writer: # writer.write_table(table_chunk_1) # writer.write_table(table_chunk_2) # # ... 这种方式适合流式写入,但对大多数日常使用,直接write_table更方便
再来看读。读Parquet文件同样简单,pyarrow
会把文件内容加载成一个pyarrow.Table
对象。
# 从Parquet文件读取数据 read_table = pq.read_table('my_data.parquet') print("\n从Parquet文件读取的数据:") print(read_table) # 如果想转回Pandas DataFrame,也很方便 read_df = read_table.to_pandas() print("\n转换回Pandas DataFrame:") print(read_df) # 有时候你可能只想要读取部分列,或者根据条件过滤行,pyarrow也支持 # 比如,只读取 'name' 和 'value' 列 partial_table = pq.read_table('my_data.parquet', columns=['name', 'value']) print("\n只读取部分列的数据:") print(partial_table) # 甚至可以利用Parquet的列式存储特性进行高效过滤(下推谓词) # 不过,这需要文件本身有统计信息,并且查询条件能被Parquet引擎理解 # read_table_filtered = pq.read_table('my_data.parquet', filters=[('value', '>', 20)]) # print("\n过滤后的数据:") # print(read_table_filtered)
这里有个小细节,pq.read_table
在读取时,如果Parquet文件很大,它不会一次性把所有数据都加载到内存。它会做一些优化,比如只加载你需要的列,或者在你遍历时才真正读取数据块。这是它高效的一个体现。
为什么选择Parquet格式?它比CSV或JSON有什么优势?
我个人觉得,选择Parquet,很大程度上是看中了它在大数据场景下的性能和效率。跟CSV或JSON比起来,它简直是降维打击。
Parquet首先是列式存储。这意味着什么呢?想象一下你的数据像一张大表格。CSV和JSON是按行存的,你要读取一行,就把这一行的所有数据都读出来。但Parquet不一样,它把同一列的数据紧挨着存放在一起。这样一来,如果你只需要查询几列数据(比如只看用户ID和姓名,不关心地址、电话),Parquet就只需要读取那几列的数据块,而不是整行数据。这在处理宽表时,能显著减少I/O开销,速度快得不是一点半点。
Parquet内置了**高效的
本篇关于《Python高效读写Parquet文件技巧》的介绍就到此结束啦,但是学无止境,想要了解学习更多关于文章的相关知识,请关注golang学习网公众号!
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
403 收藏
-
148 收藏
-
266 收藏
-
323 收藏
-
283 收藏
-
190 收藏
-
395 收藏
-
290 收藏
-
229 收藏
-
392 收藏
-
229 收藏
-
396 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 542次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 511次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 498次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 484次学习