QAnything [BUG] 问答接口返回的 [response] 与文档不一致,

tez616oj  于 5个月前  发布在  其他
关注(0)|答案(7)|浏览(109)

是否已有关于该错误的issue或讨论? | 该问题是否在FAQ中有解答?

  • 我已经搜索过已有的issues和讨论 | 我已经搜索过FAQ

当前行为 | 调用问答接口,返回的[response]没有答案,只有一个 "data:[DONE]


"
,[history]里有正确回复。

#### 期望行为 | [response] 里有正确回复。

#### 运行环境 | 
  • OS:Windows 11 WSL2
  • NVIDIA Driver: 551.23
  • CUDA:12.0
  • Docker Compose: v2.23.3-desktop.2
  • NVIDIA GPU Memory:24GB

#### QAnything日志 | No response

#### 复现方法 | 请求 /api/local_doc_qa/local_doc_chat 接口。

#### 备注 | No response
to94eoyn

to94eoyn1#

我也遇到了相同的问题。

5w9g7ksd

5w9g7ksd2#

是否已有关于该错误的issue或讨论? | 该问题是否在FAQ中有解答?

  • 我已经搜索过已有的issues和讨论 | 我已经搜索过FAQ

当前行为 | 调用问答接口,返回的[response]没有答案,只有一个 "data:[DONE]

",[history]里有正确回复。

期望行为 | [response] 里有正确回复。

运行环境 |

- OS:Windows 11 WSL2
- NVIDIA Driver: 551.23
- CUDA:12.0
- Docker Compose: v2.23.3-desktop.2
- NVIDIA GPU Memory:24GB

QAnything日志 | No response

复现方法 | 请求 /api/local_doc_qa/local_doc_chat 接口。

备注 | No response

QAnything/qanything_kernel/connector/llm/llm_for_fastchat.py
Line 167 in 5c17a2a
| answer_result.llm_output= {"answer": response_text} |
可以在这条code把 answer_result.llm_output = {"answer": response_text} 改成 answer_result.llm_output = {"answer": complete_answer} 就行了
需要看你是用什么服务(local还是cloud),对相对应的文件作修改即可。

uqdfh47h

uqdfh47h3#

是否已有关于该错误的issue或讨论? | Is there an existing issue / discussion for this?

  • 我已经搜索过已有的issues和讨论 | I have searched the existing issues / discussions

该问题是否在FAQ中有解答? | Is there an existing answer for this in FAQ?

  • 我已经搜索过FAQ | I have searched FAQ

当前行为 | Current Behavior

调用问答接口,返回的[response]没有答案,只有一个 "data:[DONE]

",[history]里有正确回复。

期望行为 | Expected Behavior

[response] 里有正确回复。

运行环境 | Environment

- OS:Windows 11 WSL2
- NVIDIA Driver: 551.23
- CUDA:12.0
- Docker Compose: v2.23.3-desktop.2
- NVIDIA GPU Memory:24GB

QAnything日志 | QAnything logs

  • No response*

复现方法 | Steps To Reproduce

请求 /api/local_doc_qa/local_doc_chat 接口。

备注 | Anything else?

  • No response*

QAnything/qanything_kernel/connector/llm/llm_for_fastchat.py
Line 167 in 5c17a2a
| answer_result.llm_output= {"answer": response_text} |
可以在这条code把 answer_result.llm_output = {"answer": response_text} 改成 answer_result.llm_output = {"answer": complete_answer} 就行了
需要看你是用什么服务(local还是cloud),对相对应的文件作修改即可。
感谢回复,就是不知道这是个bug还是有什么特别的目的?

n53p2ov0

n53p2ov04#

是否已有关于该错误的issue或讨论? | 是否已有关于此错误的issue或讨论?

  • 我已经搜索过已有的issues和讨论 | 我已搜索过现有的issues和讨论

该问题是否在FAQ中有解答? | 此问题是否在FAQ中有解答?

  • 我已经搜索过FAQ | 我已搜索过FAQ

当前行为 | 当前行为

调用问答接口,返回的[response]没有答案,只有一个 "data:[DONE]

",[history]里有正确回复。

期望行为 | 期望行为

[response] 里有正确回复。

运行环境 | 运行环境

- OS:Windows 11 WSL2
- NVIDIA Driver: 551.23
- CUDA:12.0
- Docker Compose: v2.23.3-desktop.2
- NVIDIA GPU Memory:24GB

QAnything日志 | QAnything日志

  • 无响应*

复现方法 | 重现步骤

请求 /api/local_doc_qa/local_doc_chat 接口。

备注 | 其他信息

  • 无响应*

QAnything/qanything_kernel/connector/llm/llm_for_fastchat.py
第167行 in 5c17a2a
| answer_result.llm_output= {"answer": response_text} |
可以在这条代码中把 answer_result.llm_output = {"answer": response_text} 改为 answer_result.llm_output = {"answer": complete_answer} 就可以了
需要看你使用的是哪种服务(本地还是云端),对相应的文件进行修改即可。
感谢回复,但不知道这是个bug还是有什么特殊目的?
想问一下你是否使用了他的前端来进行测试?请问前端的回复是否有问题?(我这里无法进行测试,因为公司的一些问题无法使用前端的服务)

nwlls2ji

nwlls2ji5#

是否已有关于该错误的issue或讨论? | 是否已有关于此问题的issue或讨论?

  • 我已经搜索过已有的issues和讨论 | 我已搜索过现有的issues/讨论

该问题是否在FAQ中有解答? | 此问题是否在FAQ中有解答?

  • 我已经搜索过FAQ | 我已搜索过FAQ

当前行为 | 当前行为

调用问答接口,返回的[response]没有答案,只有一个 "data:[DONE]

",[history]里有正确回复。

期望行为 | 期望行为

[response] 里有正确回复。

运行环境 | 运行环境

- OS:Windows 11 WSL2
- NVIDIA Driver: 551.23
- CUDA:12.0
- Docker Compose: v2.23.3-desktop.2
- NVIDIA GPU Memory:24GB

QAnything日志 | QAnything日志

  • 无响应*

复现方法 | 重现步骤

请求 /api/local_doc_qa/local_doc_chat 接口。

备注 | 其他信息

  • 无响应*

QAnything/qanything_kernel/connector/llm/llm_for_fastchat.py
第167行 in 5c17a2a
| answer_result.llm_output= {"answer": response_text} |
可以在这条代码中把 answer_result.llm_output = {"answer": response_text} 改为 answer_result.llm_output = {"answer": complete_answer} 就可以了。需要根据你使用的服务(本地还是云端)来修改相应的文件。
感谢回复,但不知道这是个bug还是有什么特殊目的?
想问一下你用了他的前端来做测试吗?请问前端的回复是否有问题?(我这里无法进行测试,因为公司的一些问题无法使用前端的服务)
前端目前未发现问题。

krcsximq

krcsximq6#

是否已有关于该错误的issue或讨论? | 是否已有关于此错误的issue或讨论?

  • 我已经搜索过已有的issues和讨论 | 我已搜索过现有的issues和讨论

该问题是否在FAQ中有解答? | 此问题是否在FAQ中有解答?

  • 我已经搜索过FAQ | 我已搜索过FAQ

当前行为 | 当前行为

调用问答接口,返回的[response]没有答案,只有一个 "data:[DONE]

"(换行),[history]里有正确回复。

期望行为 | 期望行为

[response] 里有正确回复。

运行环境 | 运行环境

- OS:Windows 11 WSL2
- NVIDIA Driver: 551.23
- CUDA:12.0
- Docker Compose: v2.23.3-desktop.2
- NVIDIA GPU Memory:24GB

QAnything日志 | QAnything日志

  • 无响应*

复现方法 | 重现步骤

请求 /api/local_doc_qa/local_doc_chat 接口。

其他信息 | 其他信息

  • 无响应*

QAnything/qanything_kernel/connector/llm/llm_for_fastchat.py
第167行 in 5c17a2a
| answer_result.llm_output= {"answer": response_text} |
可以在这条代码中把 answer_result.llm_output = {"answer": response_text} 改成 answer_result.llm_output = {"answer": complete_answer} 就可以了。
需要看你使用的是哪种服务(本地还是云端),对相应的文件进行修改即可。
修改后测试发现,如果在请求中设置["streaming":true],后端会报500错误。暂时使用streaming:false的方式调用API以避免问题。

lymgl2op

lymgl2op7#

\n\n在上述PR中已修复,只需自行添加一个if else判断即可。

相关问题