Chinese-CLIP 请问如何将该模型作为stable diffusion的text encoder进行微调训练?

mcvgt66p  于 2个月前  发布在  其他
关注(0)|答案(2)|浏览(29)
代码中textencoder的大概调用是这样的,是否有调用错误?使用的transformers版本为4.25.1
text_cn_encoder = ChineseCLIPTextModel.from_pretrained(args.pretrained_text_model_path)
  tokenizer_cn = BertTokenizer.from_pretrained(args.pretrained_text_model_path)
  inputs_cn = tokenizer_cn(text=captions, truncation=True, return_tensors="pt")
  encoder_hidden_states = text_cn_encoder(inputs_cn.input_ids).last_hidden_state
q35jwt9p

q35jwt9p1#

我是这么写的。虽然有瑕疵,但是可以使用。

0kjbasz6

0kjbasz62#

想问一下,为什么你引用的是ChineseCLIPModel。而不是ChineseCLIPTextModel呢@HiddenMarkovModel

相关问题