登录
首页 >  文章 >  python教程

R²分数计算方法及公式解析

时间:2026-02-08 14:36:43 366浏览 收藏

本篇文章主要是结合我之前面试的各种经历和实战开发中遇到的问题解决经验整理的,希望这篇《非线性回归R²分数怎么算?》对你有很大帮助!欢迎收藏,分享给更多的需要的朋友学习~

如何正确理解并计算非线性回归模型中的 R² 分数

R² 分数并非恒为正值,当模型拟合效果比简单均值预测更差时,其值可为负数;本文详解 sklearn 中 `r2_score` 的计算逻辑、负值成因,并提供规范的非线性拟合与评估实践指南。

在使用 sklearn.metrics.r2_score 评估非线性回归模型(如您对 kc_house_data 构建的指数型函数 y = β₁·β₂ᵃ + β₃)时,出现负值(如 -59.51)并不表示代码错误,而是模型性能的客观反映。R² 的数学定义为:

[ R^2 = 1 - \frac{\sum_i (y_i - \hat{y}_i)^2}{\sum_i (y_i - \bar{y})^2} ]

其中分子是残差平方和(RSS),分母是总平方和(TSS),以目标变量均值 (\bar{y}) 为基准。关键在于:当 RSS > TSS 时,R² < 0——这意味着您的模型预测结果,整体上比直接用 y_data_norm 的均值进行“常数预测”还要糟糕。

在您的代码中,问题主要出现在以下环节:

  1. 训练与预测范围不一致:您用 curve_fit 在归一化后的 x_data_norm 上拟合参数,但绘图时却用 x = np.linspace(4, 12, 21613) / max(x) 生成全新横坐标——该区间(4–12)远超 x_data_norm 实际范围([0, 1]),导致外推严重失真,y 预测值剧烈偏离真实分布;
  2. 评估对象错位:r2_score(y_data_norm, y) 中 y 是在错误 x 网格上计算的预测值(长度 21613),而 y_data_norm 长度为原始样本数(如 21613 可能巧合匹配,但逻辑错误),且未对应真实输入点;
  3. 未使用拟合后的最优参数进行 内插预测:应基于原始 x_data_norm 计算拟合值 y_pred = log(x_data_norm, *popt),再与 y_data_norm 对齐评估。

✅ 正确做法如下:

# 正确:在原始归一化输入上生成预测值
y_pred_norm = log(x_data_norm, *popt)  # 注意:x_data_norm 是训练输入

# 确保维度一致、一一对应
assert len(y_pred_norm) == len(y_data_norm)

# 计算 R² —— 此时若仍为负,说明模型结构或初始化严重不适配数据
r2 = r2_score(y_data_norm, y_pred_norm)
print(f"R²-score (on training points): {r2:.4f}")

⚠️ 补充注意事项:

  • R² < 0 提示模型存在根本性问题:函数形式不合理(如 log() 定义中 np.power(Beta_2, a) 对 a ∈ [0,1] 增长过缓)、初始参数偏差大、数据噪声高或特征工程失效(combined 特征可能淹没关键信号);
  • 对非线性回归,建议优先使用交叉验证下的 mean_squared_error 或 mean_absolute_error 辅助诊断;
  • 若追求解释性 R²,可考虑对数变换后线性化(如 log(price) ~ combined),再用线性 R² 评估;
  • 永远避免在未经对齐的 x 网格上评估指标——它衡量的是“绘图美观度”,而非模型泛化能力。

总结:R² 为负不是 bug,而是 red flag。它敦促我们回归建模本质——检查函数假设是否合理、数据预处理是否引入偏差、以及优化过程是否收敛到有意义解。在非线性场景中,可视化残差、检验 Jacobian 条件数、尝试不同初值或换用鲁棒优化器(如 method='trf'),往往比执着于 R² 数值更有价值。

以上就是本文的全部内容了,是否有顺利帮助你解决问题?若是能给你带来学习上的帮助,请大家多多支持golang学习网!更多关于文章的相关知识,也可关注golang学习网公众号。

前往漫画官网入口并下载 ➜
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>