我从这个教程学习神经机器翻译https://www.tensorflow.org/tutorials/text/nmt_with_attention#restore_the_latest_checkpoint_and_test
但似乎没有 train_losses
以及 val_losses
在教程中(仅限 batch_loss
).
有没有办法像我们用另一个模型那样得到损失价值历史
前任。
train_loss = seqModel.history['loss']
val_loss = seqModel.history['val_loss']
train_acc = seqModel.history['acc']
val_acc = seqModel.history['val_acc']
1条答案
按热度按时间ljsrvy3e1#
在这些教程中,实际上有。当他们使用
这样,他们就可以计算出
train_step
方法。但没有验证集,因此不会显示验证丢失。根据你的评论,你需要写下
test_step
函数并在训练循环中使用。下面是获得验证损失的最小表示。要在自定义训练循环中使用它,您将执行以下操作。注意,我用的是相同的
dataset
,但实际上我们需要创建一个单独的验证数据集。接下来,