Paddle-Lite nanopc t4上部署mobilenetv3_yolov3遇到内存不足的问题

vjrehmav  于 2021-12-01  发布在  Java
关注(0)|答案(6)|浏览(640)

在nano pc t4上用mobilenetv3_yolov3进行目标检测,在预测的时候会出现内存不足的情况,但是后台却显示内存没有用起来,有大佬碰到过这种问题吗。
代码是参照给的安卓demo写的用于arm的代码。
所用的mobilenetv3_yolov3的模型在PC上可以进行检测,之后用opt转换成nb格式,使用自己所写代码就会遇到下面的问题:
[W 12/ 1 10:47:50.325 ...e-Lite/lite/model_parser/model_parser.cc:811 LoadModelNaiveFromFile] warning: the version of opt that transformed this model is not consistent with current Paddle-Lite version. version of opt:v2.6.1 version of current Paddle-Lite:0d53f5af [F 12/ 1 10:47:50.970 ...odel_parser/naive_buffer/naive_buffer.cc:30 Consume] Check failed: bytes <= free_size(): 18874368!<=16687912 No free memory of 18874368, should Require the memory first ./run.sh: line 16: 29699 Aborted (core dumped)

uxhixvfz

uxhixvfz1#

T4 上建议用PaddleInference预测部署,请参考:https://paddle-inference.readthedocs.io/en/latest/#

uqzxnwby

uqzxnwby2#

我目前可以在nano pc t4(rk3399)上在pplite环境下使用mobilenetv3_yolov3进行目标检测了,但是速度很慢,大概需要8s检测一张640的图片。你的意思是我直接在nano pc t4(rk3399)上安装paddlepaddle,然后利用paddleinference预测?

mznpcxlj

mznpcxlj3#

哦,看错了,是rk3399上啊,是应该使用paddlelite。

这个硬件不太熟悉,一般不会这么久吧。是arm cpu架构吗?可以跑下benchmark,对比常见分类模型性能是不是异常。

af7jpaap

af7jpaap4#

是的,arm cpu架构。你说的benchmark是指的这个吗?

2mbi3lxu

2mbi3lxu5#

我后面是通过更新预测库解决的。可以看一下这个 PaddlePaddle/PaddleDetection#1793

相关问题