在vLLM v0.3.0版本中,logprobs似乎已经过期。我个人猜测这可能是由于Pydantic版本的问题。
在Pydantic2版本中,使用model_ dump()方法似乎无法很好地处理logprops。
我已经打印了接口,发现使用dict()返回的信息是正确的,但无法将其转换为JSON格式。
此外,由于openai服务器的重构,接口日志中的prompt参数始终为None。
vllm/vllm/entrypoints/openai/serving_completion.py##line 298
vllm/vllm/engine/async_llm_engine.py##line 432
8条答案
按热度按时间uemypmqf1#
关于提示的记录,我可以修复它。
关于LogProb,你有要求复现吗?我在0.3.0版本上得到了正确格式化的logprob。
5tmbdcev2#
回声参数可能也存在一些问题。
vllm/entrypoints/openai/serving_completion.py"# line 177
lztngnrs3#
logprobs的功能是什么?
w9apscun4#
logprobs的功能是什么?
根据描述,logprobs表示打印候选词的对数概率。
llmtgqce5#
这个问题已经解决了,因为我使用了qwen模型,并且在huggingface的tokenization_qwen.py文件中的convert_id_to_token方法没有被转换成字符串。但是它被转换成了字节以进行处理。修改文件使得参数生效。
示例:
$x_1a_0b_1x \rightarrow x_1a_1b_1x$
qltillow6#
日志概率问题已经解决,因为我使用了qwen模型,huggingface上的tokenization_qwen.py文件中的convert_id_to_token方法没有转换为字符串。但它被转换为字节进行处理。修改文件以使参数生效。
示例:
->
@simon-mo 日志概率参数已解决,这是一个分词器问题。
"此外,由于openai服务器的重构,接口日志中的prompt参数始终为None。
vllm/vllm/entrypoints/openai/serving_completion.py##line 298
vllm/vllm/engine/async_llm_engine.py##line 432"
我认为echo参数也受到这个地方的影响。
vllm/vllm/entrypoints/openai/serving_completion.py##line 298
vllm/vllm/entrypoints/openai/serving_completion.py##line 177,我觉得可以添加一些保护
a1o7rhls7#
任何修复或PR都不胜感激。
u3r8eeie8#
我遇到了相同的问题。我已经创建了这个PR #2995,它应该涵盖回声和logprobs。