在nano pc t4上用mobilenetv3_yolov3进行目标检测,在预测的时候会出现内存不足的情况,但是后台却显示内存没有用起来,有大佬碰到过这种问题吗。
代码是参照给的安卓demo写的用于arm的代码。
所用的mobilenetv3_yolov3的模型在PC上可以进行检测,之后用opt转换成nb格式,使用自己所写代码就会遇到下面的问题:[W 12/ 1 10:47:50.325 ...e-Lite/lite/model_parser/model_parser.cc:811 LoadModelNaiveFromFile] warning: the version of opt that transformed this model is not consistent with current Paddle-Lite version. version of opt:v2.6.1 version of current Paddle-Lite:0d53f5af [F 12/ 1 10:47:50.970 ...odel_parser/naive_buffer/naive_buffer.cc:30 Consume] Check failed: bytes <= free_size(): 18874368!<=16687912 No free memory of 18874368, should Require the memory first ./run.sh: line 16: 29699 Aborted (core dumped)
6条答案
按热度按时间uxhixvfz1#
T4 上建议用PaddleInference预测部署,请参考:https://paddle-inference.readthedocs.io/en/latest/#
uqzxnwby2#
我目前可以在nano pc t4(rk3399)上在pplite环境下使用mobilenetv3_yolov3进行目标检测了,但是速度很慢,大概需要8s检测一张640的图片。你的意思是我直接在nano pc t4(rk3399)上安装paddlepaddle,然后利用paddleinference预测?
mznpcxlj3#
哦,看错了,是rk3399上啊,是应该使用paddlelite。
这个硬件不太熟悉,一般不会这么久吧。是arm cpu架构吗?可以跑下benchmark,对比常见分类模型性能是不是异常。
af7jpaap4#
是的,arm cpu架构。你说的benchmark是指的这个吗?
2mbi3lxu5#
我后面是通过更新预测库解决的。可以看一下这个 PaddlePaddle/PaddleDetection#1793
owfi6suc6#
@daiyuanm 谢谢!