error log | 日志或报错信息 | ログ
我将pytorch模型转换成head.onnx 然后onnxsim 转换成head_sim.onnx ,通过上述网址将head_sim.onnx转换成ncnn模型(此时如果选择ncnnoptimize优化模型则会转换失败,报错: RuntimeError: divide by zero!) . 如果转换的时候没有选择ncnnoptimize优化模型,则可以转换成功, 通过 load_param加载 head_sim.param文件正常,但是通过load_model加载head_bin.param文件则报错:
layer load_model 12 Conv_38 failed
model | 模型 | モデル
- original model
链接: https://pan.baidu.com/s/1plfwtc2WIhP_e8NKaifUyA 密码: ce4m
how to reproduce | 复现步骤 | 再現方法
- 转换网址 https://convertmodel.com/
- 下载simonnx文件 链接: https://pan.baidu.com/s/1plfwtc2WIhP_e8NKaifUyA 密码: ce4m
- 网络两个输入[input1, input2],两个输出[output1, output2], 网络出错的那一层涉及到 “相关操作”具体可以参考 网络结构 80-84 line
3条答案
按热度按时间rbl8hiat1#
这个网站的ONNX转换有时候会抽风,建议在本地装一个onnxsim和onnx2ncnn看能不能复现这个问题
以及pytorch转ncnn有pnnx可以用,建议也试试
sirbozc52#
这个网站的ONNX转换有时候会抽风,建议在本地装一个onnxsim和onnx2ncnn看能不能复现这个问题 以及pytorch转ncnn有pnnx可以用,建议也试试
你好,我本地转换 onnx 到 ncnn 会报 段错误, 奇怪的是最后也生成了param和bin文件, 同样不能使用ncnnoptimize优化
load_model的时候仍然是在 相关操作那一层报错的.
另外我通过onnx转换成mnn是正常的,c++实现调用mnn模型也没问题. 推测是不是ncnn目前还不支持 相关操作 那一部分
dgjrabp23#
pytorch转ncnn,建议用pnnx