我刚开始使用Google Colab学习Tensorflow,但我马上就面临着问题...
我要加载已存储在Google Cloud Storage中的现有个人数据集:
from google.colab import auth
auth.authenticate_user()
!gsutil ls gs://MY_BUCKET_NAME/
(其中MY_BUCKET_NAME实际上是“cloud-ai-platform-d 7863 b 94 - 84 f9...”)。这列出了该存储桶中的几个文件夹,如“MyDataSet_normal”、“MyDataSet_bad”,这意味着我的笔记本电脑能够读取此GCS存储桶。
然后,我按照https://www.tensorflow.org/datasets/gcs尝试加载数据集:ds_train, ds_test = tfds.load(name="MyDataSet_normal", split=["train", "test"], data_dir="gs://MY_BUCKET_NAME", try_gcs=True)
,但它返回:
未找到数据集错误:找不到数据集MyDataSet_normal。
可用的数据集:
- 抽象推理
- 重音数据库
- 美国科学院
- ...
看起来它试图在公共共享的 tensorflow_datasets 中查找“MyDataSet_normal”,而不是在MY_BUCKET_NAME中查找我自己的数据集。我试着在谷歌上搜索,没有找到任何有用的信息。
我错过了什么?我如何告诉我的Colab笔记本,请查看MY_BUCKET_NAME中的数据集,而不是公共 tensorflow_datasets?
谢谢你!
1条答案
按热度按时间46scxncf1#
我曾尝试谷歌云,你可以特定的路径,但我的步道期限到期,然后我使用谷歌驱动器,这是免费的。
你可以使用model.save或对称的方法,我把它们存储在一个数据库缓冲区,但结果和保存的它的权重可以保持在一个安全的驱动器不动。有很多功能的谷歌云和谷歌协作,但对于数据集存储,谷歌驱动器是足够的,除了过滤器。
示例:较长的终端距离可以保存提醒成本。
输出量: