llama_index 聊天引擎是否可以调用stream_complete()?

irlmq6kh  于 5个月前  发布在  其他
关注(0)|答案(5)|浏览(50)

问题验证

  • 我已经在文档和discord中寻找答案。

问题

聊天引擎是否可以调用stream_complete()?

vwkv1x7d

vwkv1x7d1#

嘿,@cxycxm!🚀很高兴看到你又提出了一个有趣的问题。我正在深入挖掘以获取你的答案。请稍等!

t3psigkw

t3psigkw2#

你正在寻找的方法是 chat_engine.stream_chat()

response = chat_engine.stream_chat("Hello!")
for token response.response_gen:
  print(token, end="", flush=True)
eeq64g8w

eeq64g8w3#

要直接回答您的问题,chat_engine 没有名为 stream_complete() 的方法。相反,正如维护者所强调的,您应该使用 chat_engine.stream_chat() 来处理实时聊天响应。以下是关于如何使用它的快速概述:

response = chat_engine.stream_chat("Hello!")
for token in response.response_gen:
  print(token, end="", flush=True)

这种方法允许您实时处理和打印从聊天引擎接收到的每个令牌。如果您有任何更多问题或需要进一步澄清,请随时提问!

详细信息

来源

此回复旨在提供帮助并节省您的时间。它不是 精确解决方案,而是您自己研究的起点。
帮助我变得更有用!如果这有帮助,请留下一个👍,如果不相关,请留下一个👎。

  • 要继续对话,请提及 @dosu。*
wnrlj8wa

wnrlj8wa4#

但是我需要stream_complete(),我的目的是完成对话。

lo8azlld

lo8azlld5#

很遗憾,聊天引擎的工作原理并非如此。只有在你有一个单一的字符串时,补全才有意义,而不是一个交替的聊天历史记录。
如果你愿意,你可以用聊天历史提示它,并将llms的响应作为前一条消息的补全。

相关问题