load_model()报错layer load_model fail, ncnnoptimize优化报错 RuntimeError: divide by zero

yiytaume  于 4个月前  发布在  其他
关注(0)|答案(3)|浏览(46)

error log | 日志或报错信息 | ログ

我将pytorch模型转换成head.onnx 然后onnxsim 转换成head_sim.onnx ,通过上述网址将head_sim.onnx转换成ncnn模型(此时如果选择ncnnoptimize优化模型则会转换失败,报错: RuntimeError: divide by zero!) . 如果转换的时候没有选择ncnnoptimize优化模型,则可以转换成功, 通过 load_param加载 head_sim.param文件正常,但是通过load_model加载head_bin.param文件则报错:
layer load_model 12 Conv_38 failed

model | 模型 | モデル

  1. original model
    链接: https://pan.baidu.com/s/1plfwtc2WIhP_e8NKaifUyA 密码: ce4m

how to reproduce | 复现步骤 | 再現方法

  1. 转换网址 https://convertmodel.com/
  2. 下载simonnx文件 链接: https://pan.baidu.com/s/1plfwtc2WIhP_e8NKaifUyA 密码: ce4m
  3. 网络两个输入[input1, input2],两个输出[output1, output2], 网络出错的那一层涉及到 “相关操作”具体可以参考 网络结构 80-84 line
rbl8hiat

rbl8hiat1#

这个网站的ONNX转换有时候会抽风,建议在本地装一个onnxsim和onnx2ncnn看能不能复现这个问题
以及pytorch转ncnn有pnnx可以用,建议也试试

sirbozc5

sirbozc52#

这个网站的ONNX转换有时候会抽风,建议在本地装一个onnxsim和onnx2ncnn看能不能复现这个问题 以及pytorch转ncnn有pnnx可以用,建议也试试

你好,我本地转换 onnx 到 ncnn 会报 段错误, 奇怪的是最后也生成了param和bin文件, 同样不能使用ncnnoptimize优化
load_model的时候仍然是在 相关操作那一层报错的.

另外我通过onnx转换成mnn是正常的,c++实现调用mnn模型也没问题. 推测是不是ncnn目前还不支持 相关操作 那一部分

dgjrabp2

dgjrabp23#

pytorch转ncnn,建议用pnnx

相关问题