首页
问答库
知识库
教程库
标签
AI工具箱
登录
注册
投稿
one-api 支持 LLM stream_options 参数
b5lpy0ml
于 4个月前
发布在
其他
关注(0)
|
答案(1)
|
浏览(116)
例行检查
我已确认目前没有类似 issue
我已确认我已升级到最新版本
我已完整查看过项目 README,已确定现有版本无法满足需求
我理解并愿意跟进此 issue,协助测试和提供反馈
我理解并认可上述内容,并理解项目维护者精力有限,
不遵循规则的 issue 可能会被无视或直接关闭
功能描述
如上图,GPT模型新增了 stream_options 参数,便于 stream 模式下获取 usage 值。
应用场景
one-api
来源:
https://github.com/songquanpeng/one-api/issues/1679
关注
举报
1
条答案
按热度
按时间
igetnqfo
1#
有同样的需求
赞(0)
分享
回复(0)
举报  
4个月前
首页
上一页
1
下一页
末页
我来回答
相关问题
查看更多
热门标签
更多
Java
query
python
Node
开发语言
request
Util
数据库
Table
后端
算法
Logger
Message
Element
Parser
最新问答
更多
xxl-job 安全组扫描到执行器端口服务存在信息泄露漏洞
回答(1)
发布于
3个月前
xxl-job 不能和nacos兼容?
回答(3)
发布于
3个月前
xxl-job 任务执行完后无法结束,日志一直转圈
回答(3)
发布于
2个月前
xxl-job-admin页面上查看调度日志样式问题
回答(1)
发布于
3个月前
xxl-job 参数512字符限制能否去掉
回答(1)
发布于
3个月前
1条答案
按热度按时间igetnqfo1#
有同样的需求