tensorflow KERAS中LSTM层输出大小与隐藏状态大小

jobtbby3  于 2023-03-09  发布在  其他
关注(0)|答案(2)|浏览(336)

我在理解LSTM的概念和在Keras上使用它方面遇到了麻烦。当考虑一个LSTM层时,输出大小和隐藏状态大小应该有两个值。

1. hidden state size : how many features are passed across the time steps of a samples when training the model
2. output size       : how many outputs should be returned by particular LSTM layer

但是在keras.layers.LSTM中,只有一个参数,用于控制图层的输出大小。
问题:

Therefore how hidden state size of the LSTM layer can be changed?

如有误解,敬请指正。

vuktfyat

vuktfyat1#

参考此article
据我所知,LSTM的隐藏状态大小称为units(单位:keras)。输出的大小取决于输入数据中有多少个时间步长以及隐藏状态(units)的维数。查看post时,这一点也会变得更加清楚
希望能有所帮助。

kadbb459

kadbb4592#

您可能混淆了LSTM中隐藏单位和输出单位的区别。请参考以下链接以获得更清晰的说明:
https://jasdeep06.github.io/posts/Understanding-LSTM-in-Tensorflow-MNIST/
基本上,num_units中提供的只是LSTM隐藏单元的大小,这一点在本文中已经非常清楚了。

相关问题