栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 软件开发 > 后端开发 > Python

torch.optim特定层设置特定的学习率等选项

Python 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

torch.optim特定层设置特定的学习率等选项

微调属于迁移学习中的一种,今天在学习“微调”时,发现有这么一段代码:

params_1x = [param for name, param in net.named_parameters()
             if name not in ["fc.weight", "fc.bias"]]
trainer = torch.optim.SGD([{'params': params_1x},
                               {'params': net.fc.parameters(),
                                'lr': learning_rate * 10}],
                            lr=learning_rate, weight_decay=0.001)

param_1x这行代码选出不是fc层的weight和bias的其他参数。

而trainer代码实现对fc层的优化器设置10倍的学习率,param_1x里的参数则是默认。

刚开始看的时候不是很明白,于是去pytorch文档看了下:

 总之是学习到了,用字典的方式来指定特殊层的参数的学习率。

事实上在迁移学习中,我们还可以设定网络中某些层的参数不随训练而更新:

for param in finetune_net.parameters():
    param.requires_grad = False

参考资料:

torch.optim — PyTorch 1.12 documentation

转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/997748.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号