首页
问答库
知识库
教程库
标签
AI工具箱
登录
注册
投稿
inference
+ 关注
文章:
0
|
问答:
3
|
关注:
0
暂无介绍
文章
|
问答
2
回答
53
浏览
inference QUESTION: Encoutering libcudart.so.12: cannot open shared object file: No such file or directory
inference
其他
eqzww0vc
4个月前
浏览 (53)
4个月前 
2
回答
76
浏览
inference 问题:部署0.10.1版本的Docker qwen1.5-32B时,出现一直感叹号的情况,不知道是推理问题还是qwen问题,
inference
Docker
s4n0splo
4个月前
浏览 (76)
4个月前 
3
回答
65
浏览
inference 大批量请求后 服务直接卡死
inference
其他
btxsgosb
4个月前
浏览 (65)
4个月前 
1
回答
61
浏览
inference 在Rocm5.6/py310/pytorch2.1.2环境中,Xinf无法识别AMD GPU,
inference
其他
e3bfsja2
4个月前
浏览 (61)
4个月前 
2
回答
48
浏览
inference ChatGLM3-128k 模型实际最大输出被限制在了 4096
inference
其他
ufj5ltwl
4个月前
浏览 (48)
4个月前 
2
回答
53
浏览
inference v10.2.post1,命令行BUG,默认执行pytorch格式模型
inference
其他
6psbrbz9
4个月前
浏览 (53)
4个月前 
1
回答
53
浏览
inference BUG: ImportError: 无法从 'typing_extensions' 导入 'Union' (/usr/local/lib/python3.10/dist-packages/typing_extensions.py)
inference
Python
yhived7q
4个月前
浏览 (53)
4个月前 
1
回答
49
浏览
inference GLM4-9B-chat模型推理报错
inference
其他
x33g5p2x
4个月前
浏览 (49)
4个月前 
1
回答
59
浏览
inference qwen-vl开启Steam模式失败
inference
其他
kpbpu008
4个月前
浏览 (59)
4个月前 
2
回答
58
浏览
inference ColBert/ColBertv2的支持
inference
其他
s4chpxco
4个月前
浏览 (58)
4个月前 
2
回答
46
浏览
inference GLM-4V 模型显存使用量计算bug
inference
其他
axzmvihb
4个月前
浏览 (46)
4个月前 
3
回答
61
浏览
inference 安装llama-cpp-python cuda 推理加速支持时,提示"找不到nvcc,请设置CUDAToolkit_ROOT,"
inference
Python
edqdpe6u
4个月前
浏览 (61)
4个月前 
5
回答
99
浏览
inference QUESTION: How to deploy as extensible docker image
inference
Docker
p4tfgftt
4个月前
浏览 (99)
4个月前 
4
回答
95
浏览
Xinference Dify集成问题
inference
其他
1qczuiv0
5个月前
浏览 (95)
5个月前 
2
回答
64
浏览
[BUG] 使用Xinference启动自定义模型时出现错误[BUG]
inference
其他
fiei3ece
5个月前
浏览 (64)
5个月前 
2
回答
62
浏览
inference 模型已经下载完成,启动时出现ServerClosed错误
inference
其他
webghufk
5个月前
浏览 (62)
5个月前 
1
回答
59
浏览
inference ENH: daemon mode
inference
其他
332nm8kg
4个月前
浏览 (59)
4个月前 
1
回答
76
浏览
inference ENH: Implement a load balancer
inference
其他
ut6juiuv
5个月前
浏览 (76)
5个月前 
1
回答
89
浏览
inference 问题:worker无法通过PodIP连接到supervisor 翻译结果:Worker无法通过PodIP连接到supervisor
inference
其他
9nvpjoqh
5个月前
浏览 (89)
5个月前 
1
回答
71
浏览
DOC: add doc about xinference_client
inference
其他
izj3ouym
5个月前
浏览 (71)
5个月前 
1
回答
79
浏览
inference FEAT: 支持代码GeeX4
inference
其他
h5qlskok
4个月前
浏览 (79)
4个月前 
5
回答
276
浏览
调用/v1/chat/completions接口,使用jmeter 10并发进行压测,压测1分钟后xinference挂了,xinference版本为0.11.3,
inference
其他
ssgvzors
5个月前
浏览 (276)
5个月前 
4
回答
78
浏览
inference 当推理Gemma-2时,响应重复,
inference
其他
11dmarpk
4个月前
浏览 (78)
4个月前 
2
回答
94
浏览
如何使用BAAI/bge-reranker-v2-minicpm-layerwise rerank模型调用xinferenceapi
inference
其他
nlejzf6q
5个月前
浏览 (94)
5个月前 
1
回答
114
浏览
inference BUG 无法加载ChatTTS模型
inference
其他
sd2nnvve
5个月前
浏览 (114)
5个月前 
4
回答
74
浏览
【Bug】在xinference主界面的UI中,自定义模型板块中的PyTorch类型选项缺少自定义量化的设置,目前只能通过代码注册模型,
inference
其他
yrdbyhpb
5个月前
浏览 (74)
5个月前 
2
回答
52
浏览
inference 请问书生InternVL2什么时候可以支持?谢谢,
inference
其他
gfttwv5a
5个月前
浏览 (52)
5个月前 
1
回答
74
浏览
inference 支持阿里巴巴语音识别模型:SenseVoice
inference
其他
3okqufwl
5个月前
浏览 (74)
5个月前 
2
回答
146
浏览
安装完成后,运行xinference-local --host 0.0.0.0 --port 9997报错,
inference
其他
bvjveswy
5个月前
浏览 (146)
5个月前 
1
回答
60
浏览
inference 支持阿里巴巴文字转语音模型:CosyVoice,支持多种音色以及复刻音色,
inference
其他
piv4azn7
5个月前
浏览 (60)
5个月前 
首页
上一页
1
2
3
4
下一页
末页
热门标签
更多
Java
query
python
Node
开发语言
request
Util
数据库
Table
后端
算法
Logger
Message
Element
Parser
最新问答
更多
xxl-job 安全组扫描到执行器端口服务存在信息泄露漏洞
回答(1)
发布于
3个月前
xxl-job 不能和nacos兼容?
回答(3)
发布于
3个月前
xxl-job 任务执行完后无法结束,日志一直转圈
回答(3)
发布于
3个月前
xxl-job-admin页面上查看调度日志样式问题
回答(1)
发布于
3个月前
xxl-job 参数512字符限制能否去掉
回答(1)
发布于
3个月前