PyTorch冻结层,设置requires_grad为False方法
时间:2026-04-20 13:37:12 418浏览 收藏
本文深入解析了PyTorch中冻结网络层的核心机制与实战要点:关键在于精准将目标参数的`requires_grad`设为`False`,而非简单操作模块本身,并强调必须遍历`parameters()`逐个设置;同时警示常见陷阱——如忽略BN层的`track_running_stats`控制、未在构建优化器前筛选可训练参数导致严重性能损耗,以及字符串匹配层名时的重名风险;通过清晰示例(如只训练`fc`和`layer4`)、可验证的调试方法(检查梯度存在性、统计`param_groups`长度)和编译/分布式训练的前置要求,帮助开发者高效、稳定地实现分层训练,避免隐性bug和训练效率断崖式下降。

冻结PyTorch模型某几层:直接操作 requires_grad
冻结层的本质就是让对应参数的 requires_grad 为 False,这样反向传播时自动跳过这些参数,不更新也不占用梯度内存。关键不是“禁用层”,而是“禁用该层中所有 Parameter 的梯度”。
常见错误是只改了某一层的 .requires_grad = False,但忘了它内部可能有多个参数(比如 weight 和 bias),或者误以为设置模块本身属性就足够——其实必须遍历其 parameters()。
- 对单个层(如
model.layer2):用for param in model.layer2.parameters(): param.requires_grad = False - 对模块内所有子模块递归冻结:用
model.layer2.apply(lambda m: setattr(m, 'requires_grad', False))不可靠,因为apply作用在模块上,不是参数上;正确写法是for param in model.layer2.parameters(): param.requires_grad = False - 冻结后记得调用
model.eval()吗?不需要——eval()只影响Dropout、BatchNorm等行为,和梯度无关;但如果你冻结了BatchNorm层又想保持其统计量不变,就得额外设model.layer.bn.running_mean.requires_grad = False(默认已是False),一般不用动
只训练最后两层:用 named_parameters() 精确控制
想放开最后几层、冻结前面大部分,靠硬编码层名容易出错(比如 ResNet 的 layer4 后还有 fc)。更稳的方式是按参数名或顺序筛选。
例如在 ResNet 中只训练 fc 和 layer4:
for name, param in model.named_parameters():
if "layer4" not in name and "fc" not in name:
param.requires_grad = False
注意:这种字符串匹配要小心重名(比如 layer4_1 也会被匹配),更健壮的做法是先打印 list(model.named_parameters())[:5] 看清结构。
- 冻结后务必检查:运行一次
loss.backward()后,用[p.grad is not None for p in model.parameters() if p.requires_grad]确认只有目标层有梯度 - 如果用了
torch.compile()或DDP,冻结逻辑必须在模型包装前完成,否则编译器可能把已冻结参数仍纳入图中
冻结后 optimizer 里还包含这些参数?会报错或浪费内存
即使参数 requires_grad = False,只要它还在 optimizer.param_groups 里,optimizer.step() 就会尝试更新——虽然更新值不变(因为梯度为 None),但会触发冗余计算和 CUDA 同步,严重拖慢训练速度,甚至在 AMP 下引发 NaN。
正确做法是构造 optimizer 时只传入需要更新的参数:
params_to_update = [p for p in model.parameters() if p.requires_grad] optimizer = torch.optim.Adam(params_to_update, lr=1e-4)
- 不要在冻结后用
optimizer.add_param_group()动态加参数——这会让 optimizer 内部状态混乱 - 如果用了学习率分组(比如 backbone lr 小、head lr 大),记得冻结后重新组织
param_groups,否则未冻结层可能被错误地分配到高 lr 组 - 验证方式:打印
len(optimizer.param_groups[0]["params"]),应等于你手动统计的requires_grad=True参数数量
BatchNorm 层冻结的特殊处理:track_running_stats 和 eval()
冻结 BN 层时,光设 requires_grad=False 不够。BN 有两个关键行为:参数更新(weight/bias)和统计量更新(running_mean/running_var)。前者由 requires_grad 控制,后者由 track_running_stats 控制。
如果你冻结了 BN 层但没关统计更新,训练时它的 running_mean 还在变,会导致特征分布漂移,效果不稳定。
- 彻底冻结 BN:除设
param.requires_grad = False外,还要bn_layer.track_running_stats = False,并确保推理时用的是预计算好的统计量 - 更常用做法:保持
track_running_stats=True(即继续累积统计量),但把 BN 切到eval()模式——这样训练时仍更新统计量,但不使用 batch 统计做归一化(而是用 running 统计量),相当于“冻结归一化行为” - 注意:
model.eval()会影响整个模型,如果只想冻结部分 BN,得单独调用bn_layer.eval()
以上就是本文的全部内容了,是否有顺利帮助你解决问题?若是能给你带来学习上的帮助,请大家多多支持golang学习网!更多关于文章的相关知识,也可关注golang学习网公众号。
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
128 收藏
-
262 收藏
-
329 收藏
-
484 收藏
-
449 收藏
-
433 收藏
-
165 收藏
-
297 收藏
-
323 收藏
-
351 收藏
-
418 收藏
-
201 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 485次学习