Paddle 关于模型的热加载

0md85ypi  于 2022-04-21  发布在  Java
关注(0)|答案(4)|浏览(388)

我这边期望能够快速的加载和释放模型,但是Paddle里面没有接口来进行模型的释放,除非对这个线程直接进行kill操作。不知道后续是否可以开放这样的模型释放接口,便于用户进行快速的加载和释放,而不需要对程序进行重启操作

wko9yo5t

wko9yo5t1#

您好,我们已经收到了您的问题,会安排技术人员尽快解答您的问题,请耐心等待。请您再次检查是否提供了清晰的问题描述、复现代码、环境&版本、报错信息等。同时,您也可以通过查看官网API文档常见问题历史IssueAI社区来寻求解答。祝您生活愉快~

Hi! We've received your issue and please be patient to get responded. We will arrange technicians to answer your questions as soon as possible. Please make sure that you have posted enough message to demo your request. You may also check out the APIFAQGithub Issue and AI community to get the answer.Have a nice day!

h22fl7wq

h22fl7wq2#

目前paddle inference是不支持的,你可以创建两个predictor来切换

cgyqldqp

cgyqldqp3#

什么时候可以考虑支持一下呢?

ukdjmx9f

ukdjmx9f4#

可以按照我上面说的创建两个predictor来切换。

热加载以后也不会支持的

相关问题