使用Cloudflared隧道发布Ollama服务端口,客户端返回无消息

vs91vp4v  于 2个月前  发布在  其他
关注(0)|答案(4)|浏览(103)

Cloudflared隧道用于发布ollama服务端口,客户端使用enchanted-llm应用程序进行对话,没有返回消息。但是如果没有cloudflared隧道,一切都正常工作。ollama是否使用基于websocket的流式对话?

bq9c1y66

bq9c1y661#

你使用了localhost/127.0.0.1还是在OLLAMA_HOST环境变量中暴露了机器的0.0.0.0本地IP?
对我来说,添加OLLAMA_HOST="0.0.0.0:PORT"设置一个期望的端口,在我的情况下,5000运行正常。
我花了一些时间注意到我只暴露了本地主机而不是我的机器的IP,重定向不起作用。
在Cloudflare隧道的配置中,我不得不设置规则为HTTP。现在它运行正常,但我仍然需要使用HTTPS而不是HTTP查询API。

kzipqqlq

kzipqqlq2#

你在Cloudflare中使用了哪些设置?我遇到了524错误。

cyvaqqii

cyvaqqii3#

如上面的评论所述,我将其部署在0.0.0.0上并使用端口5000。

jutyujz0

jutyujz04#

通过小代理后使用一个正常的临时解决方案。

相关问题