torch模型转paddle, 时延增加了30倍

gijlo24d  于 5个月前  发布在  其他
关注(0)|答案(2)|浏览(50)

请提出你的问题 Please ask your question

yolo-world方案,yolo-v8的检测算法,v100上,一张卡推理相同的图片,在torch端推理耗时0.08s左右,torch模型转paddle, 用paddle inference 推理时延变成了1.9s左右,麻烦看下是啥原因
paddle 推理:

python侧推理:

pn9klfpd

pn9klfpd1#

torch的推理截图无法正常显示;麻烦给出复现方法。

cotxawn7

cotxawn72#

首次执行predictor时,内部会执行初始化过程,耗时较长,后续的step耗时会恢复正常。

相关问题