一种实用的降学习率公式

Posted AI浩

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了一种实用的降学习率公式相关的知识,希望对你有一定的参考价值。

一种实用的降学习率公式:

 			# set lr rate
            current_lr = 0.0002 * (1 / 2) ** (step / 10000)
            for param_group in optimizer_G.param_groups:
                param_group["lr"] = current_lr

具体使用方法:

 	step = 0
    for epoch in range(opt.epoch, opt.n_epochs):
        for i, batch in enumerate(dataloader):
            step = step + 1

            # set lr rate
            current_lr = 0.0002 * (1 / 2) ** (step / 10000)
            for param_group in optimizer_G.param_groups:
                param_group["lr"] = current_lr

以上是关于一种实用的降学习率公式的主要内容,如果未能解决你的问题,请参考以下文章

梯度下降实用技巧II之学习率 Gradient descent in practice II -- learning rate

机器学习准确率精确率召回率误报率漏报率概念及公式

Pytorch模型训练实用教程学习笔记:四优化器与学习率调整

ab压力测试

精确率和召回率

PyTorch中"诡异"的动量SGD实现