问题类型:模型部署
问题描述
部署环境:Jetson nano,Jetpack 4.5 python3.6+nv_jetson-cuda10.2-cudnn8-trt7
安装官方提供的库 paddlepaddle_gpu-2.1.0-cp36-cp36m-linux_aarch64.whl
代码步骤如:https://paddleinference.paddlepaddle.org.cn/demo_tutorial/cuda_jetson_demo.html
config.EnableUseGpu(500, 0);
[使用GPU报错,停用GPU正常。报错代码如下图
25条答案
按热度按时间zfciruhq1#
cuda cudnn 都没问题
paddle发布了2.1.1在哪可下载适合的whl库文件?
dba5bblo2#
还有2G版本最好别连接VNC内存资源不够用
xmakbtuz3#
还有2G版本最好别连接VNC内存资源不够用
cyvaqqii4#
用GPU时 config.enable_use_gpu(0)最大显存
eqfvzcg85#
感谢百度的兄弟回复,我是用的2G版本内存有点少,估计内存问题 用GPU时 config.enable_use_gpu(0, 0) 可以了
gzszwxb46#
@wangye707 方便回你个QQ吗?
8wtpewkr7#
这里回复了问题,#31767
rkkpypqq8#
@LDOUBLEV 方便加个微信或QQ吗?我是nano 2G版本,你是测试的哪种模型呢?
mitkmikd9#
尝试下提供的这个paddle whl包,我的机器上测试是可以的。
y53ybaqx10#
网络肯定是没有问题,我烧了4.4没出现System throttled due to over-current,也下载了2.0的paddle-gpu版本,还是一样的问题,没有解决
pgccezyw11#
没有限制的,检查下网络吧
4uqofj5v12#
我看到桌面出现System throttled due to over-current,会不会是过流受限制了?
jxct1oxe13#
下载链接:
预测库:
https://paddle-inference-lib.bj.bcebos.com/2.1.1-nv-jetson-jetpack4.4-nano/paddle_inference_install_dir.tgz
whl包
https://paddle-inference-lib.bj.bcebos.com/2.1.1-nv-jetson-jetpack4.4-nano/paddlepaddle_gpu-2.1.1-cp36-cp36m-linux_aarch64.whl
t40tm48m14#
您好,我们已经收到了您的问题,会安排技术人员尽快解答您的问题,请耐心等待。请您再次检查是否提供了清晰的问题描述、复现代码、环境&版本、报错信息等。同时,您也可以通过查看官网API文档、常见问题、历史Issue、AI社区来寻求解答。祝您生活愉快~
Hi! We've received your issue and please be patient to get responded. We will arrange technicians to answer your questions as soon as possible. Please make sure that you have posted enough message to demo your request. You may also check out the API,FAQ,Github Issue and AI community to get the answer.Have a nice day!
xqkwcwgp15#
测试其他模型是否能GPU预测,如果也不行,那应该是环境问题,可以尝试