描述错误
在简单的聊天场景中使用Azure OpenAI会产生一个代码级别的错误,该错误在聊天框中以TypeError: Cannot read properties of undefined (reading '0')
的形式显示。至少在聊天框仍然可见的情况下,实际结果会随后作为单独的消息显示。请注意,后者似乎也很奇怪,但这可能与此错误无关(请参阅屏幕截图)。
关闭并重新打开聊天窗口后,只有错误消息是可见的。
TypeError: Cannot read properties of undefined (reading '0')
at NoOpOutputParser.parseResult (/usr/local/lib/node_modules/flowise/node_modules/langchain/dist/schema/output_parser.cjs:24:38)
at NoOpOutputParser.parseResultWithPrompt (/usr/local/lib/node_modules/flowise/node_modules/langchain/dist/schema/output_parser.cjs:7:21)
at LLMChain._getFinalOutput (/usr/local/lib/node_modules/flowise/node_modules/langchain/dist/chains/llm_chain.cjs:93:55)
at LLMChain._call (/usr/local/lib/node_modules/flowise/node_modules/langchain/dist/chains/llm_chain.cjs:123:42)
at process.processTicksAndRejections (node:internal/process/task_queues:95:5)
at async LLMChain.call (/usr/local/lib/node_modules/flowise/node_modules/langchain/dist/chains/base.cjs:98:28)
at async runPrediction (/usr/local/lib/node_modules/flowise/node_modules/flowise-components/dist/nodes/chains/LLMChain/LLMChain.js:128:29)
at async LLMChain_Chains.run (/usr/local/lib/node_modules/flowise/node_modules/flowise-components/dist/nodes/chains/LLMChain/LLMChain.js:77:21)
at async App.processPrediction (/usr/local/lib/node_modules/flowise/dist/index.js:783:19)
at async /usr/local/lib/node_modules/flowise/dist/index.js:558:13
重现
重现行为所需的步骤:
- 从模板“Simple LLM Chain”创建一个新的聊天流程
- 用Azure OpenAI替换OpenAI LLM
- 根据文档配置LLM的访问凭据
- 保存并部署
- 查看错误
预期行为
LLM在聊天框中以清晰的回复形式给出一个单一的响应。
截图
Azure模型的配置如下(API示例名称在这里是虚拟的)
带有错误结果的简单聊天场景看起来如下:
流程
如果适用,请添加导出的流程以帮助复制问题。
设置
- 安装:带有
/bin/sh -c flowise start
的Docker容器 - Flowise版本 1.3.4(docker镜像flowiseai/flowise:1.3.4)
- 操作系统:Linux
- 浏览器:Chrome
5条答案
按热度按时间xlpyo6sf1#
你在Azure上部署的是什么模型?较旧的已弃用模型可能无法工作。这里是文档 - https://docs.flowiseai.com/chat-models/azure-chatopenai
aydmsdu92#
我尝试了使用'gpt-35-turbo'和'gpt-4'的部署。
jjhzyzn03#
仍然无法工作
9nvpjoqh4#
yks3o0rb5#
有人有在Flowise中使用Azure OpenAI的有效设置吗?