langchain4j [功能]提高AI服务中结构化输出的可靠性

btxsgosb  于 3个月前  发布在  其他
关注(0)|答案(5)|浏览(76)

如果LLM以带反引号的JSON Package 并/或附加文本作为响应,请尝试提取该内容而不是失败
(可配置)在解析失败的情况下重试,将错误反馈给LLM
如果AI服务的返回类型是POJO且底层LLM支持,则自动启用JSON模式
如果返回类型是枚举/布尔值,则在LLM支持的情况下自动使用logitBias
考虑将函数调用作为结构化输出的第二种选择
考虑使用现有库生成/验证JSON模式

gkn4icbw

gkn4icbw1#

你好,

使用ChatGPT开发的和测试的解析输出模板,对吗?像Llama这样的开放LLMs在回答中非常冗长。

此致

感谢这个令人惊叹的项目。

9fkzdhlc

9fkzdhlc2#

是的,大多数高级功能都是在至少考虑了gpt-3.5-turbo级别的LLM的情况下开发的。但是现在当我们在Ollama中有了llama3/mixtral/等以及json模式时,它应该对大多数用例都很好。但我们仍然需要实现这个PR,以确保长尾的边缘情况得到很好的处理。

evrscar2

evrscar25#

如果有人遇到这个问题,请暂时启用LLM的json模式。

相关问题