Chinese-CLIP 相同的文本词,使用encode_text产出的结果不一样

h79rfbju  于 2个月前  发布在  其他
关注(0)|答案(2)|浏览(31)

我是使用源码安装的cn_clip,然后执行了下面代码

for i in range(10):
    embedding = model.encode_text(text)

结果都不一样
调试进去看model.encode_text方法,发现387行的self.bert跑出来的结果每次都不一样
应该怎么调整参数来保证相同的text产生相同的embedding

ws51t4hk

ws51t4hk1#

模型忘记设置elif()了吧。。。

4nkexdtk

4nkexdtk2#

模型忘记设置eval()了吧。。。
是的,调试到内部时候发现是有一层dropout的问题,eval()之后就固定了

相关问题