过了一段时间,我又回到了TensorFlow,看起来情况完全改变了。
然而,以前我在训练循环中使用tf.contrib....batch_normalization
和以下代码:
update_ops = tf.get_collection(tf.GraphKeys.UPDATE_OPS)
with tf.control_dependencies(update_ops):
train_op = optimizer.minimize(cnn.loss, global_step=global_step)
字符串
但似乎,contrib
无处可寻,tf.keras.layers.BatchNormalization
的工作方式也不一样。另外,我在他们的documentation中找不到任何培训说明。
因此,任何帮助的信息是赞赏。
2条答案
按热度按时间kxxlusnw1#
我开始使用PyTorch。它解决了问题。
ajsxfq5m2#
由于批量归一化在训练和推断过程中的行为不同,因此传入
call()
的training
变量需要被馈送到BatchNormalization
层。字符串