从url引用的示例代码:https://keras.io/examples/timeseries/timeseries_transformer_classification/
我在上面的网址中找不到任何关于“位置嵌入”内容的描述。当我浏览NLP中应用的Transformer时,我可以清楚地看到名为“TokenAndPositionEmbeding”的类。
如果它不包含“Position Embedding”,我如何在示例代码的时间序列中应用Position Embedding?
从url引用的示例代码:https://keras.io/examples/timeseries/timeseries_transformer_classification/
我在上面的网址中找不到任何关于“位置嵌入”内容的描述。当我浏览NLP中应用的Transformer时,我可以清楚地看到名为“TokenAndPositionEmbeding”的类。
如果它不包含“Position Embedding”,我如何在示例代码的时间序列中应用Position Embedding?
1条答案
按热度按时间piv4azn71#
据我所知,它不包含位置嵌入。像这样的东西应该可以工作。
此类源自https://machinelearningmastery.com/the-transformer-positional-encoding-layer-in-keras-part-2/