MLC LLM在输入过长的提示时会导致计算机冻结,然后崩溃。
这是一个崩溃问题,具体原因是在运行MLC-LLM时,输入的'aaaaaaa'导致了程序崩溃。这个问题不仅出现在较短或较复杂的提示符上,而且在使用MLC-LLM进行模型推理时也会出现。
为了解决这个问题,你可以尝试以下方法:
- 确保你的MLC-LLM和TVM库是最新版本的,因为新版本可能已经修复了这个问题。
- 检查你的硬件配置是否满足MLC-LLM和TVM的要求,例如显卡型号、驱动版本等。
- 在运行程序时,尝试使用其他输入来测试,看看是否仍然出现崩溃问题。如果其他输入没有问题,那么可能是特定于'aaaaaaa'的输入导致的。
- 如果问题仍然存在,你可以考虑在MLC-LLM的GitHub仓库中提交一个issue,详细描述你遇到的问题以及相关的环境信息。这样开发者可以更好地了解问题并提供帮助。
4条答案
按热度按时间aemubtdh1#
你介意尝试一下Python API https://llm.mlc.ai/docs/deploy/python_engine.html,并提供一个可复现的脚本来解决这个错误吗?
ezykj2lf2#
感谢您,这个脚本每次运行时都会导致错误:
这是完整的日志:
fcwjkofz3#
谢谢,您是否介意对您拥有的GPu和显存大小发表评论?
vnzz0bqm4#
我没有单独的GPU,我使用的是赛扬5105处理器,配备了英特尔UHD Graphics 24EU移动版显卡,但它没有自己的显存。