首页
问答库
知识库
教程库
标签
AI工具箱
登录
注册
投稿
inference
+ 关注
文章:
0
|
问答:
3
|
关注:
0
暂无介绍
文章
|
问答
2
回答
51
浏览
inference QUESTION: Encoutering libcudart.so.12: cannot open shared object file: No such file or directory
inference
其他
eqzww0vc
4个月前
浏览 (51)
4个月前 
2
回答
70
浏览
inference 问题:部署0.10.1版本的Docker qwen1.5-32B时,出现一直感叹号的情况,不知道是推理问题还是qwen问题,
inference
Docker
s4n0splo
4个月前
浏览 (70)
4个月前 
3
回答
63
浏览
inference 大批量请求后 服务直接卡死
inference
其他
btxsgosb
4个月前
浏览 (63)
4个月前 
1
回答
56
浏览
inference 在Rocm5.6/py310/pytorch2.1.2环境中,Xinf无法识别AMD GPU,
inference
其他
e3bfsja2
4个月前
浏览 (56)
4个月前 
2
回答
45
浏览
inference ChatGLM3-128k 模型实际最大输出被限制在了 4096
inference
其他
ufj5ltwl
4个月前
浏览 (45)
4个月前 
2
回答
53
浏览
inference v10.2.post1,命令行BUG,默认执行pytorch格式模型
inference
其他
6psbrbz9
4个月前
浏览 (53)
4个月前 
1
回答
48
浏览
inference BUG: ImportError: 无法从 'typing_extensions' 导入 'Union' (/usr/local/lib/python3.10/dist-packages/typing_extensions.py)
inference
Python
yhived7q
4个月前
浏览 (48)
4个月前 
1
回答
45
浏览
inference GLM4-9B-chat模型推理报错
inference
其他
x33g5p2x
4个月前
浏览 (45)
4个月前 
1
回答
57
浏览
inference qwen-vl开启Steam模式失败
inference
其他
kpbpu008
4个月前
浏览 (57)
4个月前 
2
回答
54
浏览
inference ColBert/ColBertv2的支持
inference
其他
s4chpxco
4个月前
浏览 (54)
4个月前 
2
回答
43
浏览
inference GLM-4V 模型显存使用量计算bug
inference
其他
axzmvihb
4个月前
浏览 (43)
4个月前 
3
回答
57
浏览
inference 安装llama-cpp-python cuda 推理加速支持时,提示"找不到nvcc,请设置CUDAToolkit_ROOT,"
inference
Python
edqdpe6u
4个月前
浏览 (57)
4个月前 
5
回答
94
浏览
inference QUESTION: How to deploy as extensible docker image
inference
Docker
p4tfgftt
4个月前
浏览 (94)
4个月前 
4
回答
92
浏览
Xinference Dify集成问题
inference
其他
1qczuiv0
4个月前
浏览 (92)
4个月前 
2
回答
59
浏览
[BUG] 使用Xinference启动自定义模型时出现错误[BUG]
inference
其他
fiei3ece
4个月前
浏览 (59)
4个月前 
2
回答
61
浏览
inference 模型已经下载完成,启动时出现ServerClosed错误
inference
其他
webghufk
4个月前
浏览 (61)
4个月前 
1
回答
59
浏览
inference ENH: daemon mode
inference
其他
332nm8kg
4个月前
浏览 (59)
4个月前 
1
回答
68
浏览
inference ENH: Implement a load balancer
inference
其他
ut6juiuv
4个月前
浏览 (68)
4个月前 
1
回答
84
浏览
inference 问题:worker无法通过PodIP连接到supervisor 翻译结果:Worker无法通过PodIP连接到supervisor
inference
其他
9nvpjoqh
4个月前
浏览 (84)
4个月前 
1
回答
69
浏览
DOC: add doc about xinference_client
inference
其他
izj3ouym
4个月前
浏览 (69)
4个月前 
1
回答
74
浏览
inference FEAT: 支持代码GeeX4
inference
其他
h5qlskok
4个月前
浏览 (74)
4个月前 
5
回答
246
浏览
调用/v1/chat/completions接口,使用jmeter 10并发进行压测,压测1分钟后xinference挂了,xinference版本为0.11.3,
inference
其他
ssgvzors
4个月前
浏览 (246)
4个月前 
4
回答
77
浏览
inference 当推理Gemma-2时,响应重复,
inference
其他
11dmarpk
4个月前
浏览 (77)
4个月前 
2
回答
93
浏览
如何使用BAAI/bge-reranker-v2-minicpm-layerwise rerank模型调用xinferenceapi
inference
其他
nlejzf6q
4个月前
浏览 (93)
4个月前 
1
回答
103
浏览
inference BUG 无法加载ChatTTS模型
inference
其他
sd2nnvve
4个月前
浏览 (103)
4个月前 
4
回答
70
浏览
【Bug】在xinference主界面的UI中,自定义模型板块中的PyTorch类型选项缺少自定义量化的设置,目前只能通过代码注册模型,
inference
其他
yrdbyhpb
4个月前
浏览 (70)
4个月前 
2
回答
51
浏览
inference 请问书生InternVL2什么时候可以支持?谢谢,
inference
其他
gfttwv5a
4个月前
浏览 (51)
4个月前 
1
回答
74
浏览
inference 支持阿里巴巴语音识别模型:SenseVoice
inference
其他
3okqufwl
4个月前
浏览 (74)
4个月前 
2
回答
129
浏览
安装完成后,运行xinference-local --host 0.0.0.0 --port 9997报错,
inference
其他
bvjveswy
4个月前
浏览 (129)
4个月前 
1
回答
56
浏览
inference 支持阿里巴巴文字转语音模型:CosyVoice,支持多种音色以及复刻音色,
inference
其他
piv4azn7
4个月前
浏览 (56)
4个月前 
首页
上一页
1
2
3
4
下一页
末页
热门标签
更多
Java
query
python
Node
开发语言
request
Util
数据库
Table
后端
算法
Logger
Message
Element
Parser
最新问答
更多
xxl-job 安全组扫描到执行器端口服务存在信息泄露漏洞
回答(1)
发布于
3个月前
xxl-job 不能和nacos兼容?
回答(3)
发布于
3个月前
xxl-job 任务执行完后无法结束,日志一直转圈
回答(3)
发布于
2个月前
xxl-job-admin页面上查看调度日志样式问题
回答(1)
发布于
3个月前
xxl-job 参数512字符限制能否去掉
回答(1)
发布于
3个月前