PyTorch坐标平方和计算方法解析
时间:2025-10-05 09:27:46 336浏览 收藏
本文详细介绍了如何使用PyTorch构建神经网络来计算坐标平方和(x^2 + y^2),并着重解决了训练过程中常见的收敛难题。文章首先分析了原始模型训练效果不佳的原因,包括**输入数据未标准化、训练周期不足以及批量大小选择不当**等问题。针对这些问题,提出了**数据标准化预处理、增加训练周期以及调整批量大小**等优化策略,并提供了详细的PyTorch代码示例。通过实施这些优化措施,能够显著提升模型的性能和收敛速度。本文旨在帮助读者掌握PyTorch神经网络训练的关键技巧,避免模型训练过程中的常见陷阱,从而更有效地解决实际问题。无论您是PyTorch初学者还是有一定经验的开发者,都能从本文中受益。

引言:构建神经网络计算坐标平方和
在深度学习实践中,我们经常需要训练神经网络来拟合特定的数学函数。本教程的目标是构建一个PyTorch神经网络,其输入为三维向量[x, y, 1](其中x和y是二维坐标),输出为这些坐标的平方和,即x^2 + y^2。尽管这个函数在数学上相对简单,但在神经网络的训练过程中,若不注意数据预处理和超参数设置,仍可能遇到模型难以收敛、损失值居高不下的问题。
原始实现与挑战分析
以下是最初尝试构建该神经网络的代码片段。该实现使用了一个带有单个隐藏层的全连接网络,并尝试了标准的训练流程。
import torch
import torch.nn as nn
import numpy as np
from torch.utils.data import TensorDataset, DataLoader
import torch.optim
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
# 原始特征数据,包含大量在[-15, 15]范围内的坐标
features = torch.tensor([[8.3572,-11.3008,1],[6.2795,-12.5886,1],[4.0056,-13.4958,1]
,[1.6219,-13.9933,1],[-0.8157,-14.0706,1],[-3.2280,-13.7250,1]
,[-5.5392,-12.9598,1],[-7.6952,-11.8073,1],[-9.6076,-10.3035,1],
[-11.2532,-8.4668,1],[-12.5568,-6.3425,1],[-13.4558,-4.0691,1],
[-13.9484,-1.7293,1],[-14.0218,0.7224,1],[-13.6791,3.1211,1],
[-12.9064,5.4561,1],[-11.7489,7.6081,1],[-10.2251,9.5447,1],
[5.4804,12.8044,1],[7.6332,11.6543,1],[9.5543,10.1454,1],
[11.1890,8.3117,1],[12.4705,6.2460,1],[13.3815,3.9556,1],
[13.8733,1.5884,1],[13.9509,-0.8663,1],[13.6014,-3.2793,1],
[12.8572,-5.5526,1],[11.7042,-7.7191,1],[10.1761,-9.6745,1],
[-8.4301,11.1605,1],[-6.3228,12.4433,1],[-4.0701,13.3401,1],
[-1.6816,13.8352,1],[0.7599,13.9117,1],[3.1672,13.5653,1]]).to(device)
# 计算标签:x^2 + y^2
labels = []
for i in range(features.shape[0]):
label=(features[i][0])**2+(features[i][1])**2
labels.append(label)
labels = torch.tensor(labels).to(device)
# 定义网络结构
num_input ,num_hidden,num_output = 3,64,1
net = nn.Sequential(
nn.Linear(num_input,num_hidden),
nn.Linear(num_hidden,num_output)
).to(device)
# 权重初始化(偏置初始化未被应用)
def init_weights(m):
if type(m) == nn.Linear:
nn.init.xavier_normal_(m.weight)
net.apply(init_weights)
loss = nn.MSELoss()
num_epochs = 10
batch_size = 6
lr=0.001
trainer = torch.optim.RAdam(net.parameters(),lr=lr)
dataset = TensorDataset(features,labels)
data_loader = DataLoader(dataset,batch_size=batch_size,shuffle=True)
# 训练循环
for i in range (num_epochs):
for X,y in data_loader:
y_hat = net(X)
l = loss(y_hat,y.reshape(y_hat.shape))
trainer.zero_grad()
l.backward()
trainer.step()
with torch.no_grad():
print(f"Epoch {i+1}, Loss: {l.item():.4f}")运行上述代码会发现,经过10个epoch的训练,损失值仍然很高,模型未能有效学习到目标函数。这通常是由以下几个原因造成的:
- 输入数据未标准化: 原始的x和y坐标范围较大(约-15到15),这可能导致神经网络在训练初期面临较大的梯度,使得优化器难以找到合适的更新方向,甚至引发梯度爆炸或消失。
- 训练周期不足: 仅10个epoch对于一个需要学习非线性关系的神经网络来说,可能不足以使其充分收敛。
- 批量大小选择: 批量大小的选择会影响训练的稳定性和收敛速度。过大可能导致泛化能力下降,过小可能导致训练不稳定。
优化策略与改进实践
为了解决上述问题并提高模型的收敛性,我们可以采取以下关键优化策略:
1. 数据预处理:输入特征标准化
标准化(Standardization)是将数据转换成均值为0、标准差为1的分布,是深度学习中常用的数据预处理技术。它有助于:
- 加速收敛: 标准化后的数据能使损失函数更“平滑”,避免在某些维度上梯度过大或过小,从而帮助优化器更快地找到最优解。
- 防止梯度问题: 减小了输入特征之间的尺度差异,有助于缓解梯度消失或爆炸的问题。
我们可以对features的前两列(即x和y坐标)进行标准化处理:
mean = features[:,:2].mean(dim=0) std = features[:,:2].std(dim=0) features[:,:2] = (features[:,:2] - mean) / std
注意,这里只对x和y坐标进行了标准化,因为第三列是一个常数1,它不参与计算x^2+y^2,并且作为偏置项的输入,通常不需要标准化。
2. 训练参数调整:增加Epochs与调整Batch Size
- 增加训练周期(num_epochs): 更多的训练周期意味着模型有更多机会遍历整个数据集并调整其权重。对于复杂的函数拟合,增加训练周期通常是必要的。
- 调整批量大小(batch_size): 批量大小的选择是一个经验性的过程。较小的批量通常能提供更频繁的权重更新,可能有助于跳出局部最优,但也可能导致训练过程更加震荡。对于本例,适当减小批量大小可能会带来更好的收敛效果。
根据经验,我们可以将num_epochs增加到100,并将batch_size调整为2:
num_epochs = 100 batch_size = 2
整合优化后的PyTorch代码
将上述优化策略整合到原始代码中,得到以下改进后的实现:
import torch
import torch.nn as nn
import numpy as np
from torch.utils.data import TensorDataset, DataLoader
import torch.optim
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
features = torch.tensor([[8.3572,-11.3008,1],[6.2795,-12.5886,1],[4.0056,-13.4958,1]
,[1.6219,-13.9933,1],[-0.8157,-14.0706,1],[-3.2280,-13.7250,1]
,[-5.5392,-12.9598,1],[-7.6952,-11.8073,1],[-9.6076,-10.3035,1],
[-11.2532,-8.4668,1],[-12.5568,-6.3425,1],[-13.4558,-4.0691,1],
[-13.9484,-1.7293,1],[-14.0218,0.7224,1],[-13.6791,3.1211,1],
[-12.9064,5.4561,1],[-11.7489,7.6081,1],[-10.2251,9.5447,1],
[5.4804,12.8044,1],[7.6332,11.6543,1],[9.5543,10.1454,1],
[11.1890,8.3117,1],[12.4705,6.2460,1],[13.3815,3.9556,1],
[13.8733,1.5884,1],[13.9509,-0.8663,1],[13.6014,-3.2793,1],
[12.8572,-5.5526,1],[11.7042,-7.7191,1],[10.1761,-9.6745,1],
[-8.4301,11.1605,1],[-6.3228,12.4433,1],[-4.0701,13.3401,1],
[-1.6816,13.8352,1],[0.7599,13.9117,1],[3.1672,13.5653,1]]).to(device)
# --- 优化点1: 输入数据标准化 ---
mean = features[:,:2].mean(dim=0)
std = features[:,:2].std(dim=0)
features[:,:2] = (features[:,:2] - mean) / std
labels = []
for i in range(features.shape[0]):
label=(features[i][0])**2+(features[i][1])**2
labels.append(label)
labels = torch.tensor(labels).to(device)
num_input ,num_hidden,num_output = 3,64,1
net = nn.Sequential(
nn.Linear(num_input,num_hidden),
nn.Linear(num_hidden,num_output)
).to(device)
def init_weights(m):
if type(m) == nn.Linear:
nn.init.xavier_normal_(m.weight)
net.apply(init_weights)
loss = nn.MSELoss()
# --- 优化点2: 调整训练周期和批量大小 ---
num_epochs = 100 # 增加训练周期
batch_size = 2 # 调整批量大小
lr=0.001
trainer = torch.optim.RAdam(net.parameters(),lr=lr)
dataset = TensorDataset(features,labels)
data_loader = DataLoader(dataset,batch_size=batch_size,shuffle=True)
for i in range (num_epochs):
for X,y in data_loader:
y_hat = net(X)
l = loss(y_hat,y.reshape(y_hat.shape))
trainer.zero_grad()
l.backward()
trainer.step()
with torch.no_grad():
# 打印每个epoch结束时的损失值
print(f"Epoch {i+1}, Loss: {l.item():.4f}")运行上述优化后的代码,你会发现模型能够显著降低损失值,并最终收敛到一个较低的误差水平。
改进效果与原理分析
- 数据标准化:通过将输入特征缩放到相似的范围,我们有效地帮助了优化器。在未标准化的数据上,如果某个特征的数值范围远大于其他特征,其对应的权重更新可能会主导整个梯度下降过程,导致训练不稳定。标准化消除了这种尺度差异,使得每个特征对损失函数的贡献更加均衡,从而加速了收敛。
- 增加训练周期:x^2 + y^2是一个非线性函数,尽管只有一个隐藏层,模型仍需要足够的时间来学习和近似这个复杂的映射关系。100个epoch为模型提供了充足的学习机会,使其能够逐步调整权重以更好地拟合数据。
- 调整批量大小:将batch_size从6调整到2,使得模型在每个epoch内进行更频繁的权重更新。虽然这可能导致每次更新的梯度估计噪声更大,但在某些情况下,这种频繁更新有助于模型更快地探索损失函数的曲面,避免陷入较差的局部最优。
进一步的优化建议
除了上述改进,在实际的神经网络训练中,还可以考虑以下优化策略:
- 学习率调度(Learning Rate Scheduling):在训练过程中动态调整学习率,例如从较大的学习率开始,然后逐渐减小。这有助于在训练初期快速收敛,并在后期更精细地调整权重。
- 激活函数选择:虽然本例中没有显式指定隐藏层的激活函数(默认是线性),但对于更复杂的非线性问题,选择ReLU、Sigmoid或Tanh等非线性激活函数是至关重要的。
- 更复杂的网络结构:如果目标函数更加复杂,可能需要增加隐藏层的数量或每层神经元的数量。
- 正则化技术:如L1/L2正则化或Dropout,可以帮助防止模型过拟合,提高泛化能力。
- 不同的优化器:虽然RAdam是一个强大的优化器,但在某些情况下,Adam、SGD with Momentum等也可能表现出色。
总结
本教程通过一个具体的例子,展示了如何使用PyTorch训练一个神经网络来拟合x^2 + y^2函数。核心 takeaway 是,成功的神经网络训练不仅仅依赖于网络架构本身,更离不开有效的数据预处理和细致的超参数调优。通过对输入数据进行标准化、增加训练周期以及调整批量大小,我们能够显著改善模型的收敛性能,使其能够有效学习并拟合目标函数。这些实践经验对于解决更广泛的深度学习问题同样具有指导意义。
文中关于的知识介绍,希望对你的学习有所帮助!若是受益匪浅,那就动动鼠标收藏这篇《PyTorch坐标平方和计算方法解析》文章吧,也可关注golang学习网公众号了解相关技术文章。
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
133 收藏
-
255 收藏
-
423 收藏
-
297 收藏
-
286 收藏
-
174 收藏
-
319 收藏
-
294 收藏
-
345 收藏
-
464 收藏
-
243 收藏
-
490 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 485次学习