#首先定义网络模型 net = module() # 定义一个optimizer类,这个类可以用来更新网络参数 optimizer = torch.optim.SGD(net.parameters(),lr=0.01) # 定义学习率调度器 CosineLR = torch.optim.lr_scheduler.CosineAnnealingLR(optimizer_CosineLR, T_max=150, eta_min=0) #再求出输出计算出损失函数 loss.backward() CosineLR.step()
torch.optim.lr_scheduler:调整学习率
pytorch中文文档torch.optim



