ChatGPT-3 属性错误:模块转换器没有属性TFGPTNeoForCausalLM

ujv3wf0j  于 2023-03-03  发布在  其他
关注(0)|答案(2)|浏览(222)

我克隆了此存储库/文档https://huggingface.co/EleutherAI/gpt-neo-125M
我得到下面的错误,无论我运行它在谷歌collab或本地。我也安装了变压器使用这个

pip install git+https://github.com/huggingface/transformers

并确保将配置文件命名为config.json

5 tokenizer = AutoTokenizer.from_pretrained("gpt-neo-125M/",from_tf=True)
----> 6 model = AutoModelForCausalLM.from_pretrained("gpt-neo-125M",from_tf=True)
      7 
      8 

3 frames
/usr/local/lib/python3.7/dist-packages/transformers/file_utils.py in __getattr__(self, name)

AttributeError: module transformers has no attribute TFGPTNeoForCausalLM

完整代码:

from transformers import AutoTokenizer, AutoModelForCausalLM 

tokenizer = AutoTokenizer.from_pretrained("EleutherAI/gpt-neo-125M",from_tf=True)

model = AutoModelForCausalLM.from_pretrained("EleutherAI/gpt-neo-125M",from_tf=True)

变压器-CLI环境结果:

  • transformers版本:4.10.0.dev0
  • 平台:Linux-4.4.0 - 19041-微软-x86_64-带有-glibc2. 29
  • Python版本:3.8.5
  • PyTorch版本(GPU?):1.9.0 + CPU(错误)
  • Tensorflow版本(GPU?):2.5.0(错误)
  • 亚麻色版本(CPU?/GPU?/TPU?):未安装(NA)
  • Jax版本:未安装
  • JaxLib版本:未安装
  • 是否在脚本中使用GPU?:
  • 在脚本中使用分布式或并行设置?:

协作和本地都有TensorFlow 2.5.0版本

ubbxdtey

ubbxdtey1#

尝试不使用from_tf=True标志,如下所示:

from transformers import AutoTokenizer, AutoModelForCausalLM 

tokenizer = AutoTokenizer.from_pretrained("EleutherAI/gpt-neo-125M")

model = AutoModelForCausalLM.from_pretrained("EleutherAI/gpt-neo-125M")

from_tf预期pretrained_model_name_or_path(即第一个参数)是从中加载已保存的Tensorflow检查点的路径。

czq61nw1

czq61nw12#

我的解决方案是首先编辑源代码,删除在包前面添加“TF”的行,因为正确的转换器模块是GPTNeoForCausalLM,但在源代码的某个地方,它手动在它前面添加了一个“TF”。
其次,在克隆存储库之前,必须运行

git lfs install.

这个链接帮助我正确安装了git lfs https://askubuntu.com/questions/799341/how-to-install-git-lfs-on-ubuntu-16-04

相关问题