Scikit-learn用LinearRegression实现最小二乘法
时间:2026-04-01 17:36:31 198浏览 收藏
Scikit-learn 的 LinearRegression 本质上就是普通最小二乘法(OLS)的高效封装,直接调用底层数值库求解解析解 $(X^TX)^{-1}X^Ty$,无需手动实现或额外指定;它专注预测而非统计推断——不提供 p 值、标准误或假设检验,R² 计算也默认基于中心化总平方和;当遇到多重共线性时会发出警告但仍返回 OLS 解,而强制 `fit_intercept=False` 会改变模型含义与 R² 定义;与 statsmodels 的差异源于设计目标不同:前者追求工程效率与泛化能力,后者面向统计建模;面对大数据或高维场景,需转向 SGDRegressor 或降维策略——理解这些边界,才能真正用对最小二乘。

LinearRegression 默认就是最小二乘法
Scikit-learn 的 LinearRegression 模型默认用的就是普通最小二乘(Ordinary Least Squares, OLS),不是梯度下降、不是岭回归,就是教科书里那个解析解:$(X^TX)^{-1}X^Ty$。只要你没手动设 fit_intercept=False 或改用 Ridge 等变体,它就在跑最小二乘。
常见误解是以为要“手动实现”或“指定方法”,其实不用——LinearRegression 就是 OLS 的封装,底层调用的是 scipy.linalg.lstsq 或 numpy.linalg.lstsq,数值稳定且高效。
- 如果数据维度不高(比如特征数 LinearRegression().fit(X, y) 即可
- 若
X接近奇异(多重共线性严重),LinearRegression会发出RuntimeWarning: internal gelsd driver rcond警告,但不会报错;此时解可能不稳定,但仍是 OLS 解 - 想看系数是否显著?
LinearRegression不提供 p 值或 R² 的统计检验——它只做预测,不做推断
fit_intercept=False 时的最小二乘含义变了
默认 fit_intercept=True,模型拟合的是 $y = X\beta + \beta_0 + \varepsilon$;设成 False 后,强制过原点,解变成 $\min_\beta \|y - X\beta\|^2$,仍是 OLS,但约束了截距为 0。
这个改动影响很大:
- R² 计算逻辑会变(分母从
y的方差变成y²的均值),可能导致负 R²,别慌,这是正常现象 - 如果真实关系确实不过原点,强制
fit_intercept=False会让残差系统性偏移,系数估计有偏 - 某些场景如物理建模要求零截距(比如电压=电阻×电流),这时才该关掉
和 statsmodels 的 OLS 结果不一致?先看这三点
很多人拿 LinearRegression 和 statsmodels.api.OLS 对比,发现系数一样但标准误、p 值、R² 数值不同——这不是 bug,是设计目标差异:
LinearRegression不计算协方差矩阵,也不假设误差服从正态分布;statsmodels.OLS默认做完整统计推断,需要显式调用.fit()才生成 t 统计量LinearRegression.score()返回的是决定系数 $R^2 = 1 - \frac{SS_{res}}{SS_{tot}}$,其中 $SS_{tot}$ 是以均值为中心的总平方和;而 statsmodels 的.rsquared在fit_intercept=False时用的是未中心化版本,所以数值不同- 如果你真需要标准误,别硬套 sklearn——要么切 statsmodels,要么手动用
np.linalg.inv(X.T @ X)估算(注意:需保证满秩且无缩放)
大数据量下 LinearRegression 可能爆内存或变慢
当 X 行数或列数上万时,LinearRegression.fit() 会构造 $(X^TX)$ 矩阵并求逆,时间和空间复杂度都是 $O(n p^2 + p^3)$,容易卡住或 OOM。
- 替代方案:用
sklearn.linear_model.SGDRegressor(loss='squared_error', learning_rate='constant')模拟 OLS 迭代过程,支持 partial_fit,适合流式或超大 X - 或者先用
TruncatedSVD降维,再喂给LinearRegression,但会损失部分解释性 - 注意:
SGDRegressor的结果不是精确 OLS 解,而是近似,收敛依赖学习率和迭代次数,需调max_iter和tol
最小二乘本身很简单,但“用对”取决于你清楚自己要的是预测精度、系数解释性,还是统计推断——sklearn 只管前两者,第三种需求得换工具链。别在 LinearRegression 里找 p 值,也别因 warning 就怀疑结果失效,先看警告来源和数据条件。
以上就是《Scikit-learn用LinearRegression实现最小二乘法》的详细内容,更多关于的资料请关注golang学习网公众号!
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
112 收藏
-
471 收藏
-
251 收藏
-
138 收藏
-
109 收藏
-
336 收藏
-
100 收藏
-
463 收藏
-
203 收藏
-
338 收藏
-
166 收藏
-
299 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 485次学习