1)PaddlePaddle版本:2.2
2)CPU:Intel(R) Core(TM) i9-10900K
3)GPU:两个 RTX3090 ,CUDA版本:11.65
4)系统环境:Ubuntu, python3.6
- 问题描述:最近在学习paddle,测试运行了paddle社区的一个TSN视频分类模型,进行并行训练,在对数据集进行处理时,使用了如下代码:
import paddle.distributed as dist
dist.init_parallel_env()
model = paddle.DataParallel(model)
train_sampler = paddle.io.DistributedBatchSampler(
train_dataset,
batch_size=batch_size,
shuffle=True,
drop_last=drop_last
)
# 单gpu下:len(train_sampler) = 100 (python train.py)
# 双gpu下:len(train_sampler) = 50 (python -m paddle.distributed.launch --selected_gpus='0,1' train.py)
train_loader = paddle.io.DataLoader(
train_dataset,
# batch_size=batch_size,
# shuffle=True,
batch_sampler=train_sampler,
places=paddle.set_device('gpu'),
num_workers=num_workers,
return_list=return_list
)
发现使用python train.py运行代码时,len(train_sampler) = 100;而使用python -m paddle.distributed.launch --selected_gpus='0,1' train.py运行代码时,len(train_sampler) = 50。两个长度大小为什么会不一样呢?
接着,设置batch_size=4,使用循环进行训练:
model.train() # 将模型设置为训练模式
lr = paddle.optimizer.lr.PiecewiseDecay(
boundaries=boundaries, values=values)
optimizer = paddle.optimizer.Adam(
learning_rate=lr,
# momentum=momentum,
parameters=model.parameters(),
weight_decay=paddle.regularizer.L2Decay(weight_decay)
)
for epoch in range(0, epochs):
record_list = build_record(framework)
tic = time.time()
for i, data in enumerate(train_loader):
record_list['reader_time'].update(time.time() - tic)
imgs = data[0]
labels = data[1]
print(labels)
# [[0],
# [1],
# [1],
# [0]]
cls_score = model(imgs)
outputs = head.loss(cls_score, labels, False)
avg_loss = outputs['loss']
avg_loss.backward()
optimizer.step()
optimizer.clear_grad()
record_list['lr'].update(
optimizer._global_learning_rate(), batch_size)
for name, value in outputs.items():
record_list[name].update(value, batch_size)
record_list['batch_time'].update(time.time() - tic)
tic = time.time()
if i % log_interval == 0:
ips = "ips: {:.5f} instance/sec.".format(
batch_size / record_list["batch_time"].val)
log_batch(record_list, i, epoch + 1, epochs, "train", ips)
lr.step()
ips = "ips: {:.5f} instance/sec.".format(
batch_size * record_list["batch_time"].count /
record_list["batch_time"].sum
)
log_epoch(record_list, epoch + 1, "train", ips)
使用单gpu时,发现上述代码中的内循环运行了100次,而使用双gpu时,内循环只运行了50次,打印的log数量减半。这是为什么呢?双卡时感觉只有一半数据参与了训练,但两张卡都有相同的显存占用。如果我的操作有问题,那么如何实现并行训练呢?
期待帮忙解答,谢谢!
6条答案
按热度按时间vybvopom1#
您好,我们已经收到了您的问题,会安排技术人员尽快解答您的问题,请耐心等待。请您再次检查是否提供了清晰的问题描述、复现代码、环境&版本、报错信息等。同时,您也可以通过查看 官网API文档 、 常见问题 、 历史Issue 、 AI社区 来寻求解答。祝您生活愉快~
Hi! We've received your issue and please be patient to get responded. We will arrange technicians to answer your questions as soon as possible. Please make sure that you have posted enough message to demo your request. You may also check out the API , FAQ , Github Issue and AI community to get the answer.Have a nice day!
s3fp2yjn2#
您好,多卡训练时,每个DistributedBatchSampler加载了一半数据,也就是数据并行模式,你可以打印一下数据,2个卡的数据应该不一样
oyjwcjzk3#
@liutiexing 谢谢!在上面代码中,我打印了数据的标签,内循环中每个batch打印了4个(batch_size=4),既然是并行,那么应该能够打印出8个才对吧,难道这个循环只能打印一张卡的数据?那么另一张卡的数据或标签怎么获取打印出来呢?
9q78igpj4#
谢谢!在代码中,我打印了数据的标签,内循环中每个batch打印了4个(batch_size=4),既然是并行,那么应该能够打印出8个才对吧,难道这个循环只能打印一张卡的数据?那么另一张卡的数据或标签怎么获取打印出来呢?整个训练过程中,log的打印次数也只有一半。 从 Windows 版邮件< https://go.microsoft.com/fwlink/?LinkId=550986>发送…
________________________________ 发件人: liutiexing ***@***.***> 发送时间: Thursday, March 31, 2022 7:26:53 PM 收件人: PaddlePaddle/Paddle ***@***.***> 抄送: eaglediaogit ***@***.***>; Author ***@***.***> 主题: Re: [PaddlePaddle/Paddle] 使用paddle.io.DistributedBatchSampler处理数据进行并行训练的问题 (Issue #41196) 您好,多卡训练时,每个DistributedBatchSampler加载了一半数据,也就是数据并行模式,你可以打印一下数据,2个卡的数据应该不一样 ― Reply to this email directly, view it on GitHub<#41196 (comment)>, or unsubscribe< https://github.com/notifications/unsubscribe-auth/AYATGNRLGZOWH6PJFQWQEILVCWDX3ANCNFSM5SEKK7CQ >. You are receiving this because you authored the thread.Message ID: ***@***.***>
jdg4fx2g5#
log/workerlog.0 和log/workerlog.1里有两个卡的日志
jobtbby36#
@heavengate 谢谢!我看了你说的那两个日志文件,里面打印的log信息确实不一样,包括loss等。但是仍然有几点疑问:
1)我如何知道两张卡的loss及其他训练参数是否同步;
2)按照上文中的代码,对照了一下,发现代码中打印的是worklog.0中的信息,那么worklog.1中的信息怎么打印出来呢?怎么打印出另一张卡训练的train_sampler
@liutiexing 初学,问题多多,麻烦两位了!感谢哈!