你好,我在运行beit3时遇到了问题。我检查了CUDA可用且GPU内存为32G。我在互联网上搜索到这是由于在CPU上运行的模型导致的。所以你能给我一些建议吗?谢谢!
mfuanj7w1#
你能提供更多关于如何使用beit3的信息吗?
kxeu7u2r2#
运行顺序是:
python run_beit3_finetuning.py --model beit3_base_patch16_384 --input_size 384 --task coco_retrieval --batch_size 16 --sentencepiece_model cocomodel/beit3.spm --finetune cocomodel/beit3_base_itc_patch16_224.pth --data_path coco/ --eval --dist_eval
流程如下:
x6492ojm3#
你能提供更多关于如何使用beit3的信息吗?你好,更多的信息是更新的。
n3h0vuf24#
我也不知道是什么原因导致了这个问题。看起来是因为将图像位置嵌入从14x14插值到24x24。
aamkag615#
我解决了!我下载了错误的模型点击链接来下载不是之前的文本
mum43rcc6#
我也在模型微调时发现了同样的问题。似乎在没有启用deepspeed的情况下进行训练时,pos_token的数据格式是float16。然而,CPU上的半精度支持非常有限,且不会被扩展。我不知道这个问题是否可以解决。
yruzcnhs7#
我刚刚在这条线上转换了Tensorunilm/beit3/utils.py第574行| | pos_tokens=pos_tokens.reshape(-1, orig_size, orig_size, embedding_size).permute(0, 3, 1, 2) |转换为浮点数 pos_tokens = pos_tokens.reshape(-1, orig_size, orig_size, embedding_size).permute(0, 3, 1, 2).float()
pos_tokens = pos_tokens.reshape(-1, orig_size, orig_size, embedding_size).permute(0, 3, 1, 2).float()
mefy6pfw8#
是的,可能是由于CPU不支持某些类型导致的!这能解决问题吗?
0qx6xfy69#
嘿,请打开"stable-diffusion-webui/extensions/deforum-for-automatic1111-webui/scripts/deforum_helpers/depth.py"文件,在其中的MidasModel类中找到名为"_initialize"的函数。
将以下代码:
def _initialize(self, models_path, device, half_precision=True, keep_in_vram=False, use_zoe_depth=False, Width=512, Height=512):
修改为:
def _initialize(self, models_path, device, half_precision=False, keep_in_vram=False, use_zoe_depth=False, Width=512, Height=512):
对我来说这可以正常工作 :)
9条答案
按热度按时间mfuanj7w1#
你能提供更多关于如何使用beit3的信息吗?
kxeu7u2r2#
运行顺序是:
流程如下:
加载了来自coco/coco_retrieval.train.jsonl的566747个图像文本对。
加载了来自coco/coco
x6492ojm3#
你能提供更多关于如何使用beit3的信息吗?
你好,更多的信息是更新的。
n3h0vuf24#
我也不知道是什么原因导致了这个问题。看起来是因为将图像位置嵌入从14x14插值到24x24。
aamkag615#
我解决了!
我下载了错误的模型
点击链接来下载不是之前的文本
mum43rcc6#
我也在模型微调时发现了同样的问题。似乎在没有启用deepspeed的情况下进行训练时,pos_token的数据格式是float16。然而,CPU上的半精度支持非常有限,且不会被扩展。我不知道这个问题是否可以解决。
yruzcnhs7#
我刚刚在这条线上转换了Tensor
unilm/beit3/utils.py
第574行
| | pos_tokens=pos_tokens.reshape(-1, orig_size, orig_size, embedding_size).permute(0, 3, 1, 2) |
转换为浮点数
pos_tokens = pos_tokens.reshape(-1, orig_size, orig_size, embedding_size).permute(0, 3, 1, 2).float()
mefy6pfw8#
是的,可能是由于CPU不支持某些类型导致的!
这能解决问题吗?
0qx6xfy69#
嘿,请打开"stable-diffusion-webui/extensions/deforum-for-automatic1111-webui/scripts/deforum_helpers/depth.py"文件,在其中的MidasModel类中找到名为"_initialize"的函数。
将以下代码:
修改为:
对我来说这可以正常工作 :)