Cloudflared隧道用于发布ollama服务端口,客户端使用enchanted-llm应用程序进行对话,没有返回消息。但是如果没有cloudflared隧道,一切都正常工作。ollama是否使用基于websocket的流式对话?
bq9c1y661#
你使用了localhost/127.0.0.1还是在OLLAMA_HOST环境变量中暴露了机器的0.0.0.0本地IP?对我来说,添加OLLAMA_HOST="0.0.0.0:PORT"设置一个期望的端口,在我的情况下,5000运行正常。我花了一些时间注意到我只暴露了本地主机而不是我的机器的IP,重定向不起作用。在Cloudflare隧道的配置中,我不得不设置规则为HTTP。现在它运行正常,但我仍然需要使用HTTPS而不是HTTP查询API。
kzipqqlq2#
你在Cloudflare中使用了哪些设置?我遇到了524错误。
cyvaqqii3#
如上面的评论所述,我将其部署在0.0.0.0上并使用端口5000。
jutyujz04#
通过小代理后使用一个正常的临时解决方案。
4条答案
按热度按时间bq9c1y661#
你使用了localhost/127.0.0.1还是在OLLAMA_HOST环境变量中暴露了机器的0.0.0.0本地IP?
对我来说,添加OLLAMA_HOST="0.0.0.0:PORT"设置一个期望的端口,在我的情况下,5000运行正常。
我花了一些时间注意到我只暴露了本地主机而不是我的机器的IP,重定向不起作用。
在Cloudflare隧道的配置中,我不得不设置规则为HTTP。现在它运行正常,但我仍然需要使用HTTPS而不是HTTP查询API。
kzipqqlq2#
你在Cloudflare中使用了哪些设置?我遇到了524错误。
cyvaqqii3#
如上面的评论所述,我将其部署在0.0.0.0上并使用端口5000。
jutyujz04#
通过小代理后使用一个正常的临时解决方案。