![](//img.saoniuhuo.com/images/202407/82231722161325014.jpg)
![](//img.saoniuhuo.com/images/202407/17581722161325263.jpg)
what's your llm model
chatglm-6b.
![](//img.saoniuhuo.com/images/202407/35901722161325584.jpg)
![](//img.saoniuhuo.com/images/202407/26401722161325831.jpg)
what's your llm model
chatglm-6b.
it seems like knowledge similar search find the correct answer, can you replace the llm model?
6条答案
按热度按时间hkmswyz61#
尝试了很多类似的,结果都是这样。自己复制prompt可以得到正确答案。
szqfcxe22#
在新增知识库问答中上传了一个.txt文档,然后进行问答。后台看到是定位到了这个.txt里的文章,并生成相应的prompt传到了LLM。但是LLM的回答是原生的回答。
1cklez4t3#
在新增知识库问答中上传了一个.txt文档,然后进行问答。后台看到是定位到了这个.txt里的文章,并生成相应的prompt传到了LLM。但是LLM的回答是原生的回答。
pxyaymoc4#
在新增知识库问答中上传了一个.txt文档,然后进行问答。后台看到是定位到了这个.txt里的文章,并生成相应的prompt传到了LLM。但是LLM的回答就是原生的回答。
gkn4icbw5#
有没有找到解决方法,我也遇到了相同的问题
f8rj6qna6#
请更新最新的代码进行查看。另外,您可以从后台观察是否有召回相应的数据,以及问题和文档是否具有相关性。