PaddlePaddle版本:1.5.2
训练模型的时候,使用fluid.layers.piecewise_decay进行lr的decay,发现在训练过程中,完全一样的代码,@LR_DECAY_COUNTER@在每个Epoch训练结束后,有时候会自增1,有时候不会,如下:
k3fezbri1#
是分布式训练的么
nlejzf6q2#
不是,单机单卡训练
f1tvaqid3#
请问这个问题是随机出现的吗?每次都是从头开始训练的吗?
oxiaedzo4#
随机出现的,每次都是从头开始训练,一旦出现该问题的话,从第一个Epoch就会有问题,不会有训练到一半才出现的情况
4条答案
按热度按时间k3fezbri1#
是分布式训练的么
nlejzf6q2#
不是,单机单卡训练
f1tvaqid3#
请问这个问题是随机出现的吗?每次都是从头开始训练的吗?
oxiaedzo4#
随机出现的,每次都是从头开始训练,一旦出现该问题的话,从第一个Epoch就会有问题,不会有训练到一半才出现的情况