我现在正在训练一个模型,它几乎使用了我所有的VRAM,但我的CUDA使用率徘徊在10- 20%之间。这正常吗?我知道这意味着要使用大量的VRAM,但我很惊讶它没有使用大量的Cuda核心。
ukqbszuj1#
默认情况下,tensorflow将分配几乎所有GPU的VRAM,以限制这一点。GPU的使用取决于 * 批量大小 (更大的倾向于使用更多的GPU)、 神经网络的大小 (更小的模型使用更少的资源)、 层种类 *(例如卷积更有效地使用GPU),以及 * 数据管道 *:如果将数据从磁盘/RAM移动到GPU的方式是一个瓶颈,GPU将等待新的批处理,而不是进行处理。
1条答案
按热度按时间ukqbszuj1#
默认情况下,tensorflow将分配几乎所有GPU的VRAM,以限制这一点。
GPU的使用取决于 * 批量大小 (更大的倾向于使用更多的GPU)、 神经网络的大小 (更小的模型使用更少的资源)、 层种类 *(例如卷积更有效地使用GPU),以及 * 数据管道 *:如果将数据从磁盘/RAM移动到GPU的方式是一个瓶颈,GPU将等待新的批处理,而不是进行处理。