是否已有关于该错误的issue或讨论? | 该问题是否在FAQ中有解答?
- 我已经搜索过已有的issues和讨论 | 我已经搜索过FAQ
当前行为 | 调用问答接口,返回的[response]没有答案,只有一个 "data:[DONE]
"
,[history]里有正确回复。
#### 期望行为 | [response] 里有正确回复。
#### 运行环境 |
- OS:Windows 11 WSL2
- NVIDIA Driver: 551.23
- CUDA:12.0
- Docker Compose: v2.23.3-desktop.2
- NVIDIA GPU Memory:24GB
#### QAnything日志 | No response
#### 复现方法 | 请求 /api/local_doc_qa/local_doc_chat 接口。
#### 备注 | No response
7条答案
按热度按时间to94eoyn1#
我也遇到了相同的问题。
5w9g7ksd2#
是否已有关于该错误的issue或讨论? | 该问题是否在FAQ中有解答?
当前行为 | 调用问答接口,返回的[response]没有答案,只有一个 "data:[DONE]
",[history]里有正确回复。
期望行为 | [response] 里有正确回复。
运行环境 |
QAnything日志 | No response
复现方法 | 请求 /api/local_doc_qa/local_doc_chat 接口。
备注 | No response
QAnything/qanything_kernel/connector/llm/llm_for_fastchat.py
Line 167 in 5c17a2a
| answer_result.llm_output= {"answer": response_text} |
可以在这条code把
answer_result.llm_output = {"answer": response_text}
改成answer_result.llm_output = {"answer": complete_answer}
就行了需要看你是用什么服务(local还是cloud),对相对应的文件作修改即可。
uqdfh47h3#
是否已有关于该错误的issue或讨论? | Is there an existing issue / discussion for this?
该问题是否在FAQ中有解答? | Is there an existing answer for this in FAQ?
当前行为 | Current Behavior
调用问答接口,返回的[response]没有答案,只有一个 "data:[DONE]
",[history]里有正确回复。
期望行为 | Expected Behavior
[response] 里有正确回复。
运行环境 | Environment
QAnything日志 | QAnything logs
复现方法 | Steps To Reproduce
请求 /api/local_doc_qa/local_doc_chat 接口。
备注 | Anything else?
QAnything/qanything_kernel/connector/llm/llm_for_fastchat.py
Line 167 in 5c17a2a
| answer_result.llm_output= {"answer": response_text} |
可以在这条code把
answer_result.llm_output = {"answer": response_text}
改成answer_result.llm_output = {"answer": complete_answer}
就行了需要看你是用什么服务(local还是cloud),对相对应的文件作修改即可。
感谢回复,就是不知道这是个bug还是有什么特别的目的?
n53p2ov04#
是否已有关于该错误的issue或讨论? | 是否已有关于此错误的issue或讨论?
该问题是否在FAQ中有解答? | 此问题是否在FAQ中有解答?
当前行为 | 当前行为
调用问答接口,返回的[response]没有答案,只有一个 "data:[DONE]
",[history]里有正确回复。
期望行为 | 期望行为
[response] 里有正确回复。
运行环境 | 运行环境
QAnything日志 | QAnything日志
复现方法 | 重现步骤
请求 /api/local_doc_qa/local_doc_chat 接口。
备注 | 其他信息
QAnything/qanything_kernel/connector/llm/llm_for_fastchat.py
第167行 in 5c17a2a
| answer_result.llm_output= {"answer": response_text} |
可以在这条代码中把
answer_result.llm_output = {"answer": response_text}
改为answer_result.llm_output = {"answer": complete_answer}
就可以了需要看你使用的是哪种服务(本地还是云端),对相应的文件进行修改即可。
感谢回复,但不知道这是个bug还是有什么特殊目的?
想问一下你是否使用了他的前端来进行测试?请问前端的回复是否有问题?(我这里无法进行测试,因为公司的一些问题无法使用前端的服务)
nwlls2ji5#
是否已有关于该错误的issue或讨论? | 是否已有关于此问题的issue或讨论?
该问题是否在FAQ中有解答? | 此问题是否在FAQ中有解答?
当前行为 | 当前行为
调用问答接口,返回的[response]没有答案,只有一个 "data:[DONE]
",[history]里有正确回复。
期望行为 | 期望行为
[response] 里有正确回复。
运行环境 | 运行环境
QAnything日志 | QAnything日志
复现方法 | 重现步骤
请求 /api/local_doc_qa/local_doc_chat 接口。
备注 | 其他信息
QAnything/qanything_kernel/connector/llm/llm_for_fastchat.py
第167行 in 5c17a2a
| answer_result.llm_output= {"answer": response_text} |
可以在这条代码中把
answer_result.llm_output = {"answer": response_text}
改为answer_result.llm_output = {"answer": complete_answer}
就可以了。需要根据你使用的服务(本地还是云端)来修改相应的文件。感谢回复,但不知道这是个bug还是有什么特殊目的?
想问一下你用了他的前端来做测试吗?请问前端的回复是否有问题?(我这里无法进行测试,因为公司的一些问题无法使用前端的服务)
前端目前未发现问题。
krcsximq6#
是否已有关于该错误的issue或讨论? | 是否已有关于此错误的issue或讨论?
该问题是否在FAQ中有解答? | 此问题是否在FAQ中有解答?
当前行为 | 当前行为
调用问答接口,返回的[response]没有答案,只有一个 "data:[DONE]
"(换行),[history]里有正确回复。
期望行为 | 期望行为
[response] 里有正确回复。
运行环境 | 运行环境
QAnything日志 | QAnything日志
复现方法 | 重现步骤
请求 /api/local_doc_qa/local_doc_chat 接口。
其他信息 | 其他信息
QAnything/qanything_kernel/connector/llm/llm_for_fastchat.py
第167行 in 5c17a2a
| answer_result.llm_output= {"answer": response_text} |
可以在这条代码中把
answer_result.llm_output = {"answer": response_text}
改成answer_result.llm_output = {"answer": complete_answer}
就可以了。需要看你使用的是哪种服务(本地还是云端),对相应的文件进行修改即可。
修改后测试发现,如果在请求中设置["streaming":true],后端会报500错误。暂时使用streaming:false的方式调用API以避免问题。
lymgl2op7#
\n\n在上述PR中已修复,只需自行添加一个if else判断即可。