vllm [Bug]: ValueError: 模型 QWenLMHeadModel 不支持 LoRA,但已启用,未来可能会添加对该模型的支持,如果您对此很重要,请在 github 上打开一个问题,

qacovj5a  于 4个月前  发布在  Git
关注(0)|答案(4)|浏览(185)

当前环境

The output of `python collect_env.py`

🐛 描述错误
ValueError:模型QWenLMHeadModel不支持LoRA,但已启用LoRA。未来可能会添加对该模型的支持。如果您对此很重要,请在github上打开一个问题。

cgfeq70w

cgfeq70w1#

chatglm和baichuan模型不受支持。

piztneat

piztneat2#

这些模型支持lora(chatglmbaichuan),但不支持qwen,您可以使用qwen1.5代替。

eoigrqb6

eoigrqb63#

备份?为什么我在使用qwen lora时遇到了错误?

ohfgkhjo

ohfgkhjo4#

qwen 不支持,但 qwen1.5 支持 lora。

相关问题