json 运行本地python脚本,连接到Google云平台中创建的VM,执行一些AI任务,并将输出保存到bucket以供本地下载

0wi1tuuw  于 2023-07-01  发布在  Python
关注(0)|答案(1)|浏览(103)

我已经在GCP中设置了一个存储桶,可以运行一个本地脚本,该脚本可以通过API JSON密钥访问此存储桶,并上传我感兴趣的文件。我现在正在努力用本地脚本连接到我的VM示例,以便处理这个文件来执行图像分割,然后再次将一些输出nifti文件保存到bucket。我需要帮助了解,如果它有可能做到这一点与我的计算机上的本地脚本,以及如何?计划是连接到我的VM示例,导入一个nifti文件,在bucket中找到该文件并对其执行分段,然后将输出的nifti文件保存回bucket以供本地下载。
我尝试在本地venc中使用jupyter连接到我的VM使用import paramiko,但没有成功!
我真的不知道从这里做什么,如果它甚至可能?我找不到明确的例子。感谢帮助。

yxyvkwin

yxyvkwin1#

Google Cloud Platform提供的其他服务比您所指的流程简单。
您可以使用Cloud Vision API执行光学字符识别(OCR)、图像检测和标签。您可以尝试此Codelabs活动以熟悉。
您也可以通过python从本地向API发送大图像数据的请求。请务必下载Cloud SDK沿着gsutil,设置配置,上传图片到Google Cloud Storage,然后从bucket中获取图片的标签。批处理也可用于多个图像,每批限制为16个图像。
您可以参考此documentation以了解流程和示例代码。
Cloud TPU也可以用于图像分割,因为它被优化以处理大型矩阵计算。

相关问题