例行检查
功能描述
应用场景
自定义模型部署 会用到vLLM服务,请支持一下这个主流的模型部署服务接口结构或者提供一个配置方式
jchrr9hc1#
可以提供测试环境吗?
gz5pxeao2#
可以的,我可以部署一个vLLM服务,他的endpoint是v1/completions。vLLM服务参考:GitHub - vllm-project/vllm: A high-throughput and memory-efficient inference and serving engine for LLMs。这是一个非常常用的model service server端,非常感谢支持。真的很需要。
回复的原邮件:| 发件人 | xdan_dev | 回复日期 | 2023年10月14日 16:13 | 收件人 | xdan_dev | 抄送人 | Gump ***@***.***> , ***@***.***> | 主题 | Re: [songquanpeng/one-api] 支持vLLM调用发布的接口格式 (Issue #578) | 可以提供测试环境吗? — 回复此电子邮件,直接查看GitHub上的版本,或取消订阅。您收到此消息是因为您创建了该线程。消息ID:xdan_dev。
snz8szmq3#
可以提供测试环境吗?请联系我邮箱
oug3syen4#
@songquanpeng 这里有进展吗?很喜欢你们的接入方式,但是对于自定义模型的接入不是很友好。
mkh04yzy5#
需要有人提供测试环境,更希望有人能 PR,否则我只能周末按优先级挨个实现
5条答案
按热度按时间jchrr9hc1#
可以提供测试环境吗?
gz5pxeao2#
可以的,我可以部署一个vLLM服务,他的endpoint是v1/completions。vLLM服务参考:GitHub - vllm-project/vllm: A high-throughput and memory-efficient inference and serving engine for LLMs。这是一个非常常用的model service server端,非常感谢支持。真的很需要。
回复的原邮件:
| 发件人 | xdan_dev | 回复日期 | 2023年10月14日 16:13 | 收件人 | xdan_dev | 抄送人 | Gump ***@***.***> , ***@***.***> | 主题 | Re: [songquanpeng/one-api] 支持vLLM调用发布的接口格式 (Issue #578) | 可以提供测试环境吗? — 回复此电子邮件,直接查看GitHub上的版本,或取消订阅。您收到此消息是因为您创建了该线程。消息ID:xdan_dev。
snz8szmq3#
可以提供测试环境吗?
请联系我邮箱
oug3syen4#
@songquanpeng 这里有进展吗?很喜欢你们的接入方式,但是对于自定义模型的接入不是很友好。
mkh04yzy5#
需要有人提供测试环境,更希望有人能 PR,否则我只能周末按优先级挨个实现