Tensorflow是否应该总是使用尽可能多的Cuda内核?

waxmsbnn  于 2023-05-07  发布在  其他
关注(0)|答案(1)|浏览(184)

我现在正在训练一个模型,它几乎使用了我所有的VRAM,但我的CUDA使用率徘徊在10- 20%之间。这正常吗?我知道这意味着要使用大量的VRAM,但我很惊讶它没有使用大量的Cuda核心。

ukqbszuj

ukqbszuj1#

默认情况下,tensorflow将分配几乎所有GPU的VRAM,以限制这一点。
GPU的使用取决于 * 批量大小 (更大的倾向于使用更多的GPU)、 神经网络的大小 (更小的模型使用更少的资源)、 层种类 *(例如卷积更有效地使用GPU),以及 * 数据管道 *:如果将数据从磁盘/RAM移动到GPU的方式是一个瓶颈,GPU将等待新的批处理,而不是进行处理。

相关问题