pytorch 无法将BERT模型与所有包一起导入

xxe27gdn  于 2023-10-20  发布在  其他
关注(0)|答案(1)|浏览(187)

我正在尝试使用BERT学习NLP。当尝试在colab中导入bert模型和tokenizer时。我遇到了下面的错误。

ImportError: cannot import name '_LazyModule' from 'transformers.file_utils' (/usr/local/lib/python3.7/dist-packages/transformers/file_utils.py)

这是我的代码

!pip install transformers==4.11.3
from transformers import BertModel, BertTokenizer
import torch

为了纠正错误。我试图升级变压器和 Torch 。
我尝试了下面链接的解决方案:This
但我还是无法前进。请协助。

sc4hvdpw

sc4hvdpw1#

基于这些链接1,2
这应该能帮上忙

pip install 'lightning-flash[text]' --upgrade

由于您提供的代码不是错误的原因,因为它运行在Colab上,当我尝试它时,因此这可能是您环境中的罪魁祸首

相关问题