pc x86电脑,cpu, onnxruntime,运行时间比ncnn快一倍,建议下一版本对x86优化。

wtlkbnrh  于 2022-11-19  发布在  其他
关注(0)|答案(3)|浏览(595)

detail | 详细描述 | 詳細な説明

windows10 vs2019 cpu
现在很多模型训练完后,均为onnx模型,直接使用onnxruntime 加载模型,速度比转换成ncnn模型后运行,速度快一倍。
比如:我使用chinise_lite的ocr模型,同样的onnxruntime运行时间为500ms,但是使用ncnn推理需要1130ms。
ncnn在pc x86端加载onnx模型上已经明显慢于onnxruntime,建议下一版本进行优化。

lsmepo6l

lsmepo6l1#

@xinsuinizhuan 那你PC端可以直接用onnxruntime

im9ewurl

im9ewurl2#

对呀 直接用 onnxruntime 我也是X86 不管速度 快慢=。= NCNN 是一种情怀 哈哈哈哈 一直在用ncnn

am46iovg

am46iovg3#

ncnn比较通用,手机端,pc端,维护一套代码即可

相关问题