docker 如何在线托管TensorFlow模型

ecbunoof  于 2023-05-16  发布在  Docker
关注(0)|答案(1)|浏览(146)

我正在尝试使用TensorFlow Serving将ML模型作为REST API提供服务。
我想知道是否有一种方法可以在线而不是本地托管模型?
先谢谢你。
我需要托管一个ML模型,其中在进行预测时有一个与字符串id的Map。
模型是.h5文件。
程序在笔记本中运行。但我不知道如何做的托管,当开发移动的应用程序.

bmp9r5qi

bmp9r5qi1#

最简单的解决方案可能是将您的模型打包到Docker容器中,并将其托管在任何VPS上,如AWS EC2或DigitalOcean。
有一篇中等文章描述了创建容器的过程。它相当古老,但即使在今天也应该是最相关的。
Serving ML Quickly with TensorFlow Serving and Docker
拥有容器后,您可以遵循任何描述如何将其发布到云的指南。
例如:
Deploy to AWS, Docker in 10 Minutes! | by Milan McGraw | Geek Culture | Medium
此外,如果您不严格需要使用tf服务,您可以研究一些专门设计用于简化部署过程的项目,如BentoML。我相信网上有很多指南描述如何在任何平台上托管应用程序。
BentoML: Build, Ship, Scale AI Applications

相关问题