pytorch 运行时错误:意外的EOF,需要3302200字节,文件可能已损坏

7lrncoxx  于 2023-03-30  发布在  其他
关注(0)|答案(3)|浏览(777)

我试图实现以下存储库的预训练模型。我需要你的帮助来纠正错误。
运行时错误:意外的EOF,应该还有3302200个字节。文件可能已损坏。
我尝试使用Google Collab在以下repo上实现CANNet的预训练模型,并遵循所有步骤(先决条件,克隆,数据准备和测试

https://github.com/gjy3035/NWPU-Crowd-Sample-Code.git

下面给出了详细的错误

Traceback (most recent call last):
File "test.py", line 118, in
main()
File "test.py", line 46, in main
test(lines, model_path)
File "test.py", line 55, in test
net.load_state_dict(torch.load(model_path))
File "/usr/local/lib/python3.7/dist-packages/torch/serialization.py", line 593, in load
return _legacy_load(opened_file, map_location, pickle_module, **pickle_load_args)
File "/usr/local/lib/python3.7/dist-packages/torch/serialization.py", line 779, in _legacy_load
deserialized_objects[key]._set_from_file(f, offset, f_should_read_directly)
RuntimeError: unexpected EOF, expected 3302200 more bytes. The file might be corrupted.
mspsb9vt

mspsb9vt1#

看看这个github链接:https://github.com/huggingface/transformers/issues/1491它建议使用force_download参数,这相当于force_reload,假设你使用torch.load.hub来加载预训练模型,另一个建议的选项适用于windows用户,即删除已下载的模型,然后重新下载。
我也有同样的问题,但是--设置force_reload=True没有为我清除它,我想我有空间问题,但是我认为这值得你一试。

lpwwtiir

lpwwtiir2#

当我在google collab上评估我训练过的模型时,我也面临着同样的问题。我发现模型要花很长时间才能完全上传到机器上。我用不完全上传的模型进行测试。当我确保模型已经完全上传,然后我运行时,它工作了。

x3naxklr

x3naxklr3#

在文件夹extensions/controlnet/model中的“openpose.pth”没有问题,转到stable-diffusion-webui/models/openpose,检查您的“body_pose_model.pth”和“hand_pose_model. pth”,也许它们已损坏,删除它们,然后重新加载。

相关问题