Paddle load_inference_model报错

rbl8hiat  于 2022-11-13  发布在  其他
关注(0)|答案(5)|浏览(224)

请提出你的问题 Please ask your question

f2uvfpb9

f2uvfpb91#

您好,我们已经收到了您的问题,会安排技术人员尽快解答您的问题,请耐心等待。请您再次检查是否提供了清晰的问题描述、复现代码、环境&版本、报错信息等。同时,您也可以通过查看 官网API文档常见问题历史IssueAI社区 来寻求解答。祝您生活愉快~

Hi! We've received your issue and please be patient to get responded. We will arrange technicians to answer your questions as soon as possible. Please make sure that you have posted enough message to demo your request. You may also check out the APIFAQGithub Issue and AI community to get the answer.Have a nice day!

7eumitmz

7eumitmz3#

您好,感谢您的提问。看上去是这个Ids的tensor shape出了问题,建议您检查一下这个tensor的初始化是否正确。另外,建议您升级到最新的paddle 2.3版本来使用paddle。

8yparm6h

8yparm6h4#

您好,检查了存储的模型参数之后,发现一个输入没有链接上,请问这个一般是哪里出了问题呢?需要排查哪部分呢?谢谢
在save_inference_model的时候并没有报错

kd3sttzy

kd3sttzy5#

可能是在保存的时候,这个输入在保存的时候被框架判断为没有被用到(与输出无关)的输入了,就被prune掉了。不过还是建议您升级到paddle 2.3再试一下。

相关问题