我自己训练的pytorch,转换成onnx模型,再使用X2Paddle工具转换成Paddle的模型(非combined),输入如下命令,测试paddle-lite是否支持模型:
./opt --print_model_ops=true --model_dir=pd_model/inference_model --valid_targets=arm
显示是支持的,继续输入命令:
./opt --model_dir=./pd_model/inference_model --optimize_out_type=naive_buffer --optimize_out=model --valid_targets=arm
就报了下面这个错
请问,要怎么解决?
3条答案
按热度按时间gjmwrych1#
能提供下模型吗?
7dl7o3gd2#
已经发给您邮箱了,我的邮箱903549854@qq.com,麻烦帮忙看一下,谢谢
omtl5h9j3#
大致原因:biliner_interp 的 scale 输入没有数据,应该是x2paddle转的过程出了问题
可能的解决方案:
去 x2paddle repo 下提个issue,看能不能解决这个问题
在 x2paddle 生成 model.py 文件里面,把 resize_bilinear 相关的修改下