我正在尝试使用TensorFlow Serving将ML模型作为REST API提供服务。我想知道是否有一种方法可以在线而不是本地托管模型?先谢谢你。我需要托管一个ML模型,其中在进行预测时有一个与字符串id的Map。模型是.h5文件。程序在笔记本中运行。但我不知道如何做的托管,当开发移动的应用程序.
bmp9r5qi1#
最简单的解决方案可能是将您的模型打包到Docker容器中,并将其托管在任何VPS上,如AWS EC2或DigitalOcean。有一篇中等文章描述了创建容器的过程。它相当古老,但即使在今天也应该是最相关的。Serving ML Quickly with TensorFlow Serving and Docker拥有容器后,您可以遵循任何描述如何将其发布到云的指南。例如:Deploy to AWS, Docker in 10 Minutes! | by Milan McGraw | Geek Culture | Medium此外,如果您不严格需要使用tf服务,您可以研究一些专门设计用于简化部署过程的项目,如BentoML。我相信网上有很多指南描述如何在任何平台上托管应用程序。BentoML: Build, Ship, Scale AI Applications
1条答案
按热度按时间bmp9r5qi1#
最简单的解决方案可能是将您的模型打包到Docker容器中,并将其托管在任何VPS上,如AWS EC2或DigitalOcean。
有一篇中等文章描述了创建容器的过程。它相当古老,但即使在今天也应该是最相关的。
Serving ML Quickly with TensorFlow Serving and Docker
拥有容器后,您可以遵循任何描述如何将其发布到云的指南。
例如:
Deploy to AWS, Docker in 10 Minutes! | by Milan McGraw | Geek Culture | Medium
此外,如果您不严格需要使用tf服务,您可以研究一些专门设计用于简化部署过程的项目,如BentoML。我相信网上有很多指南描述如何在任何平台上托管应用程序。
BentoML: Build, Ship, Scale AI Applications