我有一个保存的模型(*.pb文件),我想使用它进行推理。
我可以很容易地做到这一点,当我import tensorflow
,但这看起来像一个矫枉过正给我。
例如,在Android上,我可以有libandroid_tensorflow_inference_java.jar
和libtensorflow_inference.so
文件,允许我使用保存的模型运行推理,而无需超大的Tensorflow依赖。
在Python中如何做到这一点?
我使用pyinstaller
来打包我的应用程序,由于Tensorflow依赖性,我的可执行文件是500 MB。我需要减少它。
是否有一个Python模块只对模型进行推理?
1条答案
按热度按时间osh3o9ms1#
我也在尝试做同样的事情,主要是因为tensorflow太大了,我认为OpenCV就是答案。请参阅下面的帖子,以获取仅在OpenCV中运行模型的详细教程。https://learnopencv.com/deep-learning-with-opencvs-dnn-module-a-definitive-guide/#what-is-opencvv-dnn-module