登录
首页 >  文章 >  python教程

Pandas如何计算缺失值比例?

时间:2026-04-01 14:06:44 385浏览 收藏

本文深入解析了Pandas中计算缺失值比例的最优实践——`df.isna().mean()`,不仅简洁高效、自动规避除零错误和浮点精度陷阱,还全面支持按列/按行统计、多列批量处理、类型兼容(含category和nullable integer)、精度可控及空列安全等关键场景;同时揭示了常见误区(如误用`isnull().sum()/len(df)`、遗漏`axis=1`、盲目循环、忽略空字符串非缺失等),强调在数据清洗早期精准把控缺失率对后续分析可靠性的决定性影响。

Pandas如何处理缺失值的比例_使用isna配合mean计算缺失占比

isna().mean() 直接算每列缺失值比例

这是最常用也最省事的方法:Pandas 的 isna() 返回布尔 DataFrame,mean() 对布尔值求均值时会自动转成 True=1False=0,结果就是缺失值占比。

常见错误是写成 df.isnull().sum() / len(df) —— 虽然结果一样,但多一步除法、多一次长度计算,还容易在空 DataFrame 上出错(len(df) 为 0 时触发除零)。

  • df.isna().mean() 自动跳过空列,返回 float64 型 Series,数值直接是 0~1 区间
  • 想看前 5 列的缺失比?用 df.iloc[:, :5].isna().mean()
  • 结果默认保留小数点后 6 位,需要控制精度就链式调用 .round(4)

对某几列单独计算缺失比例,别用循环

遇到只关心 "age""income""city" 这几列时,有人会 for 循环套 isna().mean(),其实完全没必要。

正确做法是用列名列表索引再统一计算:df[["age", "income", "city"]].isna().mean()。这样既向量化、又清晰,还能自然对齐列顺序。

  • 列名拼错会导致 KeyError: 'xxx',建议先用 df.columns.isin(["age", "income"]) 检查是否存在
  • 如果某列是 category 类型且含 NaNisna() 仍能正确识别,无需提前转类型
  • 若列中混有 pd.NA(比如 nullable integer),isna() 同样识别为缺失,不用额外处理

按行统计缺失比例,axis=1 别漏写

有时候要筛出“缺失字段超过 30% 的样本”,就得算每行的缺失比例,这时候必须显式指定 axis=1

写成 df.isna().mean(axis=1) 才是对的;漏掉 axis=1 就变成默认按列算,返回的是列级统计,和需求完全相反。

  • 结果是个长度为 len(df) 的 Series,索引和原 DataFrame 一致,方便后续布尔索引,比如 df[df.isna().mean(axis=1) > 0.3]
  • 性能上,axis=1axis=0 慢不少,尤其列数多时。如果只是临时检查,没问题;若在 pipeline 中高频调用,考虑是否真需要逐行比例,还是用 df.isna().sum(axis=1) 算个数更轻量
  • 注意:含大量字符串列时,isna()""(空字符串)不识别为缺失,它只管 Nonenp.nanpd.NA

导出缺失比例报告时,别让 0.00.000000 混着出现

df.isna().mean() 结果直接转 Excel 或打印,常看到有的列显示 0.0,有的显示 0.000000,其实是浮点显示差异,不是数据问题。

真正影响判断的是精度丢失风险——比如两个看似都是 0.0 的列,一个实际是 1e-15,另一个真是 0.0。做阈值过滤(如 > 0.05)时,这种差异可能引发误判。

  • 统一用 .round(6) 再比较,比直接用原始 float 更稳
  • 导出到 CSV 时,df.isna().mean().round(6).to_csv("missing_ratio.csv") 可读性更好
  • 如果要做缺失率排序(比如找最高缺失列),记得用 .sort_values(ascending=False),别依赖打印顺序

缺失比例看着简单,但混合了类型推断、浮点精度、轴向理解三层细节。少一个 axis=1,或者没 round 就比较,都可能让结果偏一点,而这点偏差在清洗早期很难被发现。

理论要掌握,实操不能落!以上关于《Pandas如何计算缺失值比例?》的详细介绍,大家都掌握了吧!如果想要继续提升自己的能力,那么就来关注golang学习网公众号吧!

资料下载
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>