在没有整个Tensorflow依赖的情况下进行推理

uqzxnwby  于 2023-05-18  发布在  其他
关注(0)|答案(1)|浏览(202)

我有一个保存的模型(*.pb文件),我想使用它进行推理。
我可以很容易地做到这一点,当我import tensorflow,但这看起来像一个矫枉过正给我。
例如,在Android上,我可以有libandroid_tensorflow_inference_java.jarlibtensorflow_inference.so文件,允许我使用保存的模型运行推理,而无需超大的Tensorflow依赖。
在Python中如何做到这一点?
我使用pyinstaller来打包我的应用程序,由于Tensorflow依赖性,我的可执行文件是500 MB。我需要减少它。
是否有一个Python模块只对模型进行推理?

osh3o9ms

osh3o9ms1#

我也在尝试做同样的事情,主要是因为tensorflow太大了,我认为OpenCV就是答案。请参阅下面的帖子,以获取仅在OpenCV中运行模型的详细教程。https://learnopencv.com/deep-learning-with-opencvs-dnn-module-a-definitive-guide/#what-is-opencvv-dnn-module

相关问题