登录
首页 >  文章 >  python教程

Python计算相关系数:皮尔逊与斯皮尔曼详解

时间:2026-03-19 22:00:46 496浏览 收藏

本文深入解析了Python中计算皮尔逊与斯皮尔曼相关系数的关键区别与实战要点:pandas的corr()默认仅支持皮尔逊,需显式指定method='spearman'才能正确计算秩相关;斯皮尔曼因基于排序,对异常值、非线性关系和等级数据更鲁棒,而皮尔逊则要求近似线性和正态性;scipy的pearsonr/spearmanr均返回(系数, p值)元组,p值才是判断统计显著性的核心依据,绝不能只取相关系数;NaN处理策略在pandas与scipy间存在本质差异,易导致结果不一致;最后强调——再高的相关系数也不代表因果或线性拟合良好,散点图永远是检验关系形态不可替代的第一步。

Python怎么计算相关系数_corr()皮尔逊与斯皮尔曼相关性

pandas.DataFrame.corr() 时,默认算的是皮尔逊,不是斯皮尔曼

很多人调用 df.corr() 后发现结果和手动算的斯皮尔曼不一致,其实是没指定方法。它默认用 method='pearson',想换斯皮尔曼得显式传参。

  • 皮尔逊要求变量近似线性、服从正态分布;斯皮尔曼只依赖排序,对异常值和非线性关系更鲁棒
  • 如果数据有明显偏态、离群点,或只是等级数据(比如满意度打分 1~5),优先选 method='spearman'
  • df.corr(method='kendall') 也支持,但计算慢、对小样本敏感,日常少用

scipy.stats.pearsonr()spearmanr() 返回两个值,别只取第一个

这两个函数返回的是 (相关系数, p值) 元组,常见错误是写成 r = pearsonr(x, y)[0] 就完事,其实 p 值才是判断“是否显著相关”的关键依据。

  • 即使 r = 0.8,若 p > 0.05,也不能说存在统计显著的相关性
  • 样本量很小时(比如 n
  • 注意输入必须是 1D array-like,不能直接传 DataFrame 列以外的结构(比如嵌套 list 或含 NaN 的 Series)

NaN 处理不统一,pandas.corr()scipy 默认策略不同

pandas.DataFrame.corr() 默认用 min_periods=1,且自动剔除成对缺失(pairwise deletion);而 scipy.pearsonr() 遇到 NaN 直接报错:ValueError: Input contains NaN

  • scipy 前务必清理:比如 x, y = zip(*[(a, b) for a, b in zip(x, y) if not (np.isnan(a) or np.isnan(b))])
  • 或者更稳妥地用 scipy.stats.spearmanr(x, y, nan_policy='omit') —— 这个参数在 pearsonr 里不存在
  • 如果数据缺失集中,两种方法剔除逻辑不同,可能导致相关系数差异明显(尤其小样本)

相关系数接近 ±1 不代表有因果,也不代表线性拟合效果好

这是最容易被忽略的实质问题:相关系数只衡量单调/线性关联强度,完全不反映关系形态。

  • 一个完美的二次关系(如 y = x²,x ∈ [-1, 1])皮尔逊 r ≈ 0,但斯皮尔曼可能接近 0.5——两者都可能严重误导
  • 画散点图永远比看数字快:用 plt.scatter(x, y) 看一眼,比调十次 corr() 更有用
  • 当 r 绝对值

理论要掌握,实操不能落!以上关于《Python计算相关系数:皮尔逊与斯皮尔曼详解》的详细介绍,大家都掌握了吧!如果想要继续提升自己的能力,那么就来关注golang学习网公众号吧!

资料下载
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>