与CBOW、skip-gram和GloVe相比,BERT对嵌入词的效果如何?

icnyk63a  于 5个月前  发布在  其他
关注(0)|答案(1)|浏览(57)

与CBOW、skip-gram和GloVe相比,BERT中嵌入单词的效果如何?我认为这是一个非常有趣的问题。

rm5edbpk

rm5edbpk1#

通过使用遮罩标记进行训练,BERT迫使模型通过文本信息而不是标记的统计信息来学习标记的语义表示。因此,在BERT中的嵌入是动态的而不是静态的。

相关问题