多层感知机学加法:训练到推理全解析
时间:2026-03-17 17:18:45 133浏览 收藏
本文以“用多层感知机学习加法”这一看似简单却极具启发性的任务为切入点,手把手带你用PyTorch构建、训练并验证一个仅含单层线性变换的极简MLP模型,精准拟合 $y = x_1 + x_2$;不仅完整呈现从随机数据生成、模型定义、高效训练(含学习率调优技巧)到严谨推理与参数解读的全流程,更深入剖析了线性模型为何足够、为何必须禁用梯度做推理、如何科学验证泛化能力等关键实践误区与原理本质——让你在“学会加法”的过程中,真正读懂神经网络如何从数据中自动发现数学规律,迈出扎实可靠的深度学习第一步。

本文详解如何使用 PyTorch 构建一个极简线性 MLP 模型,通过随机样本训练其精确学习加法函数 $ y = x_1 + x_2 $,并演示模型训练后对全新输入的前向推理、结果验证与参数解读。
本文详解如何使用 PyTorch 构建一个极简线性 MLP 模型,通过随机样本训练其精确学习加法函数 $ y = x_1 + x_2 $,并演示模型训练后对全新输入的前向推理、结果验证与参数解读。
在深度学习入门实践中,用神经网络“学习加法”看似简单,却能清晰揭示模型拟合本质、优化行为与泛化能力。本教程以一个仅含单层线性变换(Linear(2, 1))的 MLP 为例,完整展示从数据生成、模型定义、训练收敛到实际推理的全流程。
✅ 正确理解“生成预测”的本质
需明确:神经网络本身不提供 .generate() 方法(该方法属于语言模型或生成式架构,如 GPT、VAE)。对回归任务(如加法),所谓“生成”即标准前向传播(inference)——只需将新输入张量传入模型即可获得预测输出:
y_pred = model(X_new) # X_new shape: (batch_size, 2)
原代码中 model.generate(idx, 50) 是误用,会导致 AttributeError。删除该行,改用直接调用即可。
? 完整可运行示例代码
以下为优化后的完整实现(关键改进:提升学习率至 1e-1 加速收敛,增强日志可读性,增加测试逻辑):
import torch
torch.manual_seed(42)
# 数据配置
N, D, C = 1000, 2, 1
lr = 1e-1 # 关键:原 1e-2 收敛慢;1e-1 可在 200 轮内达 1e-15 级损失
# 生成训练数据:X ∈ [0,1)², y = x₁ + x₂
X = torch.rand(N, D)
y = X.sum(dim=1, keepdim=True) # shape: (N, 1)
print(f"X.shape: {X.shape}, y.shape: {y.shape}")
print(f"X[:5]:\n{X[:5]}")
print(f"y[:5]:\n{y[:5]}")
# 构建模型:单层线性网络 y = w₁x₁ + w₂x₂ + b
model = torch.nn.Sequential(torch.nn.Linear(D, C))
criterion = torch.nn.MSELoss()
optimizer = torch.optim.Adam(model.parameters(), lr=lr)
# 训练循环
print("\n? 开始训练...")
for epoch in range(500):
y_pred = model(X)
loss = criterion(y_pred, y)
loss.backward()
optimizer.step()
optimizer.zero_grad()
if epoch % 50 == 0:
print(f"Epoch {epoch+1:3d} | Loss: {loss.item():.2e}")
# ✅ 推理:对全新随机数进行预测
print("\n? 测试泛化能力(5 组未见数据):")
with torch.no_grad(): # 关闭梯度,节省内存并加速
for i in range(5):
X_test = torch.rand(1, D) # 新样本:shape (1, 2)
y_pred = model(X_test).item()
y_true = X_test.sum().item()
print(f"{X_test[0,0]:.2f} + {X_test[0,1]:.2f} = {y_true:.2f} | 预测: {y_pred:.2f}")
# ? 解析学得的参数
state_dict = model.state_dict()
print(f"\n? 模型学得的权重与偏置:")
print(f"weights = {state_dict['0.weight'].flatten().tolist()}")
print(f"bias = {state_dict['0.bias'].item():.2e}")⚠️ 关键注意事项与原理说明
为什么单层线性模型足够?
加法是线性函数,而 Linear(2,1) 的表达能力恰好覆盖所有形如 $ y = w_1x_1 + w_2x_2 + b $ 的映射。理想解应为 $ w_1=w_2=1, b=0 $。训练结果中权重趋近 [1.0, 1.0]、偏置接近 0(如 2.37e-09),证实模型成功捕获数学本质。学习率至关重要
原 lr=1e-2 下损失下降缓慢;提升至 1e-1 后,损失在 100 轮内降至 1e-5 以下,500 轮达机器精度极限(~1e-20),体现超参对优化效率的显著影响。推理必须使用 torch.no_grad()
在测试阶段禁用梯度计算,既避免显存浪费,也防止意外修改模型参数,是生产级实践规范。泛化性验证要点
测试时务必使用全新采样的数据(而非训练集切片),才能真实反映模型对未知输入的预测能力。本例中 torch.rand(1,2) 每次生成独立样本,确保测试有效性。
✅ 总结
本教程通过加法这一最简非平凡任务,阐明了监督学习的核心范式:
- 数据驱动建模:用合成数据定义输入-输出关系;
- 结构匹配假设:选择与目标函数性质一致的模型容量(此处为线性);
- 优化即求解:梯度下降自动搜索最优参数;
- 推理即应用:前向传播直接给出预测,无需额外生成逻辑。
掌握此流程,是构建更复杂回归/分类模型的坚实起点。
终于介绍完啦!小伙伴们,这篇关于《多层感知机学加法:训练到推理全解析》的介绍应该让你收获多多了吧!欢迎大家收藏或分享给更多需要学习的朋友吧~golang学习网公众号也会发布文章相关知识,快来关注吧!
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
494 收藏
-
285 收藏
-
284 收藏
-
162 收藏
-
292 收藏
-
341 收藏
-
365 收藏
-
333 收藏
-
171 收藏
-
219 收藏
-
120 收藏
-
476 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 485次学习