windows10 vs2019 cpu现在很多模型训练完后,均为onnx模型,直接使用onnxruntime 加载模型,速度比转换成ncnn模型后运行,速度快一倍。比如:我使用chinise_lite的ocr模型,同样的onnxruntime运行时间为500ms,但是使用ncnn推理需要1130ms。ncnn在pc x86端加载onnx模型上已经明显慢于onnxruntime,建议下一版本进行优化。
lsmepo6l1#
@xinsuinizhuan 那你PC端可以直接用onnxruntime
im9ewurl2#
对呀 直接用 onnxruntime 我也是X86 不管速度 快慢=。= NCNN 是一种情怀 哈哈哈哈 一直在用ncnn
am46iovg3#
ncnn比较通用,手机端,pc端,维护一套代码即可
3条答案
按热度按时间lsmepo6l1#
@xinsuinizhuan 那你PC端可以直接用onnxruntime
im9ewurl2#
对呀 直接用 onnxruntime 我也是X86 不管速度 快慢=。= NCNN 是一种情怀 哈哈哈哈 一直在用ncnn
am46iovg3#
ncnn比较通用,手机端,pc端,维护一套代码即可