描述bug
webservice输出和使用llmchain和json输出的langfuse跟踪之间存在差异。在web服务中,JSON输出的结构位于"json"键下,而在langfuse中,JSON被追踪在"text"键下。
webservices:
{
"json": {
"go_back_to_menu": false,
"transfer_to_agent": false
},
"question": "hey",
"chatId": "issue-1",
"chatMessageId": "a057c1b8-82c5-4727-9d99-9c0c20d29995",
"sessionId": "issue-1"
}
在langfuse(LLM链跨度)上:
{
text: {
go_back_to_menu: false
transfer_to_agent: false
}
}
注意:我使用了带有自动修复功能的结构化输出解析器。
重现
Flowise: 1.8.0
带有输出解析器的LLM链(自动修复开启)
使用curl(Postman)预测端点
--> json键
检查langfuse跟踪
--> text键
预期行为
预测端点响应与langfuse跟踪保持一致。
截图
附加上下文
基本链,使用json输出。
1条答案
按热度按时间vx6bjr1n1#
text
是用于追踪输出的关键 - https://github.com/FlowiseAI/Flowise/blob/main/packages/components/src/handler.ts#L455