我在双GTX 1080 i-8 GB RAM上训练模型345 M时出现此错误。
ResourceExhaustedError (see above for traceback): OOM when allocating tensor with shape[3,16,1024,1024] and type float on /job:localhost/replica:0/task:0/device:GPU:0 by allocator GPU_0_bfc
anhgbhbe1#
难道它不需要相同数量的内存为每个?在CPU上,它花了~ 11 GB的训练345 M,所以我猜没有24 GB的泰坦它是行不通的?
1条答案
按热度按时间anhgbhbe1#
难道它不需要相同数量的内存为每个?在CPU上,它花了~ 11 GB的训练345 M,所以我猜没有24 GB的泰坦它是行不通的?