你好👋🏻一直喜欢ollama❤️我渴望使用新发布的结构化输出,但看起来ollama还没有兼容性,所以我只能放base_url,然后从本地LLM获取响应。另外,我想知道它是否会像导师一样支持streaming?谢谢。
tkclm6bt1#
我们可以包含它,但它只能与支持结构化输出的模型一起使用。
idfiyjo82#
不确定这是否有帮助,但我看到一个关于langchaingo的openai客户端tmc/langchaingo#986的PR。
2条答案
按热度按时间tkclm6bt1#
我们可以包含它,但它只能与支持结构化输出的模型一起使用。
idfiyjo82#
不确定这是否有帮助,但我看到一个关于langchaingo的openai客户端tmc/langchaingo#986的PR。