vllm 请为更高等级和α值添加LoRa支持,

bfnvny8b  于 6个月前  发布在  其他
关注(0)|答案(8)|浏览(44)

值错误:LoRA等级64大于最大LoRA等级16。

d8tt03nd

d8tt03nd3#

它没有被很好地记录下来,但在提供服务时,你需要传入 "-max-lora-rank 64" 或类似的参数,因为默认值是16。

python -m vllm.entrypoints.openai.api_server --max-lora-rank 64 \n--model model_name \n--enable-lora \n--lora-modules lora-name=lora_path
rm5edbpk

rm5edbpk4#

它没有被很好地记录下来,但在提供服务时,你需要传入 "-max-lora-rank 64" 或类似的东西,因为默认值是16。

python -m vllm.entrypoints.openai.api_server --max-lora-rank 64 --model model_name --enable-lora --lora-modules lora-name=lora_path

感谢回答,这对我也有帮助。对于使用代码的人,可以在这里找到:

llm = LLM(
            model=args.model, tensor_parallel_size=torch.cuda.device_count(), 
            dtype=args.dtype, trust_remote_code=True, enable_lora=True, max_lora_rank=64
        )
hkmswyz6

hkmswyz65#

解答1:$2^{n}$

解答2:$2^{64}$

cigdeys3

cigdeys36#

我们能否获得支持并合并Lora排名>64的版本?
编辑:我还好奇这是否是设计成支持最多64个等级,如果是的话请告诉我。

dgenwo3n

dgenwo3n7#

Bump.我需要更大得多的适配器来支持。谢谢

q9yhzks0

q9yhzks08#

关于lora rank >64有什么特殊之处吗?想知道为什么只支持 <=64。

相关问题