如何在以下优化器中使用学习率调度器?
optimizer = torch.optim.Adam(optim_params,betas=(args.momentum, args.beta), weight_decay=args.weight_decay)
我编写了以下调度程序:
scheduler = torch.optim.lr_scheduler.StepLR(optimizer, step_size=100, gamma=0.9)
我不确定是应该进行调度器(scheduler)还是优化器(optimizer)。在执行以下操作时,我应该采取什么顺序?
optimizer.zero_grad()
scheduler.step()
optimizer.step()