vllm [特性]:支持Internlm2 Lora加载

oprakyz7  于 4个月前  发布在  其他
关注(0)|答案(3)|浏览(71)

我尝试修改源代码以支持Lora加载internlm2模型,load lora是好的,但推理结果不正确。
具体的修改包括:

1. 添加supported_lora_modules:

models/internlm2.py:
`class InternLM2ForCausalLM(nn.Module):
packed_modules_mapping = {
"wqkv":["wqkv"],
"gate_up_proj": [
"w1",
"w3",
],
}

# LoRA specific attributes
supported_lora_modules = [
    "wqkv",
    "wo",
    "gate_up_proj",
    "w2",
]
embedding_modules = {}
embedding_padding_modules = []`

2. 添加vocab_size 92544支持:

bgmv_config.h
f(in_T, out_T, W_T, narrow, 92544)
我不知道问题出在哪里,有人能帮我吗?

替代方案

  • 无响应*

其他上下文

  • 无响应*
vql8enpb

vql8enpb2#

InternLM2是Facebook AI Research开发的一种基于Transformer的预训练语言模型。它的目标是处理超过32K的上下文,因此InternLM2系列模型都采用了分组查询注意力(GQA),以实现高速度和低GPU内存下的长序列推理。

plupiseo

plupiseo3#

当InternLM2ForCausalLM支持lora加载时,我们将迫不及待地等待这个功能。

相关问题