当前环境
The output of `python collect_env.py`
🐛 描述错误ValueError:模型QWenLMHeadModel不支持LoRA,但已启用LoRA。未来可能会添加对该模型的支持。如果您对此很重要,请在github上打开一个问题。
cgfeq70w1#
chatglm和baichuan模型不受支持。
piztneat2#
这些模型支持lora(chatglm和baichuan),但不支持qwen,您可以使用qwen1.5代替。
chatglm
baichuan
qwen
qwen1.5
eoigrqb63#
备份?为什么我在使用qwen lora时遇到了错误?
ohfgkhjo4#
qwen 不支持,但 qwen1.5 支持 lora。
4条答案
按热度按时间cgfeq70w1#
chatglm和baichuan模型不受支持。
piztneat2#
这些模型支持lora(
chatglm
和baichuan
),但不支持qwen
,您可以使用qwen1.5
代替。eoigrqb63#
备份?为什么我在使用qwen lora时遇到了错误?
ohfgkhjo4#
qwen
不支持,但qwen1.5
支持 lora。