Pytorch如何加速Dataloader提升数据读取速度
这篇文章将为大家详细讲解有关Pytorch如何加速Dataloader提升数据读取速度,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。
在利用DL解决图像问题时,影响训练效率最大的有时候是GPU,有时候也可能是CPU和你的磁盘。
很多设计不当的任务,在训练神经网络的时候,大部分时间都是在从磁盘中读取数据,而不是做 Backpropagation 。
这种症状的体现是使用 Nividia-smi 查看 GPU 使用率时,Memory-Usage 占用率很高,但是 GPU-Util 时常为 0% ,如下图所示:
如何解决这种问题呢?
在 Nvidia 提出的分布式框架 Apex 里面,我们在源码里面找到了一个简单的解决方案:
https://github.com/NVIDIA/apex/blob/f5cd5ae937f168c763985f627bbf850648ea5f3f/examples/imagenet/main_amp.py#L256
classdata_prefetcher(): def__init__(self,loader): self.loader=iter(loader) self.stream=torch.cuda.Stream() self.mean=torch.tensor([0.485*255,0.456*255,0.406*255]).cuda().view(1,3,1,1) self.std=torch.tensor([0.229*255,0.224*255,0.225*255]).cuda().view(1,3,1,1) #WithAmp,itisn'tnecessarytomanuallyconvertdatatohalf. #ifargs.fp16: #self.mean=self.mean.half() #self.std=self.std.half() self.preload() defpreload(self): try: self.next_input,self.next_target=next(self.loader) exceptStopIteration: self.next_input=None self.next_target=None return withtorch.cuda.stream(self.stream): self.next_input=self.next_input.cuda(non_blocking=True) self.next_target=self.next_target.cuda(non_blocking=True) #WithAmp,itisn'tnecessarytomanuallyconvertdatatohalf. #ifargs.fp16: #self.next_input=self.next_input.half() #else: self.next_input=self.next_input.float() self.next_input=self.next_input.sub_(self.mean).div_(self.std)
我们能看到 Nvidia 是在读取每次数据返回给网络的时候,预读取下一次迭代需要的数据,
那么对我们自己的训练代码只需要做下面的改造:
training_data_loader=DataLoader( dataset=train_dataset, num_workers=opts.threads, batch_size=opts.batchSize, pin_memory=True, shuffle=True, ) foriteration,batchinenumerate(training_data_loader,1): #训练代码 #-------------升级后--------- data,label=prefetcher.next() iteration=0 whiledataisnotNone: iteration+=1 #训练代码 data,label=prefetcher.next()
这样子我们的 Dataloader 就像打了鸡血一样提高了效率很多,如下图:
当然,最好的解决方案还是从硬件上,把读取速度慢的机械硬盘换成 NVME 固态吧~
补充:Pytorch设置多线程进行dataloader时影响GPU运行
使用PyTorch设置多线程(threads)进行数据读取时,其实是假的多线程,他是开了N个子进程(PID是连续的)进行模拟多线程工作。
以载入cocodataset为例
DataLoader
dataloader=torch.utils.data.DataLoader(COCODataset(config["train_path"], (config["img_w"],config["img_h"]), is_training=True), batch_size=config["batch_size"], shuffle=True,num_workers=32,pin_memory=True)
numworkers就是指定多少线程的参数,原为32。
检查GPU是否运行该程序
查看运行在gpu上的所有程序:
fuser-v/dev/nvidia*
如果没有返回,则该程序并没有在GPU上运行
指定GPU运行
将num_workers改成0即可
关于“Pytorch如何加速Dataloader提升数据读取速度”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。
推荐阅读
-
Pytorch中model.eval()的作用是什么
Pytorch中model.eval()的作用是什么这篇文章主要介...
-
怎么使用pytorch读取数据集
-
pytorch中的view()函数怎么使用
pytorch中的view()函数怎么使用这篇文章主要介绍了pyt...
-
PyTorch中的torch.cat怎么用
PyTorch中的torch.cat怎么用这篇文章主要介绍PyTo...
-
pytorch中的hook机制是什么
pytorch中的hook机制是什么本篇内容介绍了“pytorch...
-
pytorch中的广播语义是什么
pytorch中的广播语义是什么这篇文章主要介绍“pytorch中...
-
PyTorch梯度下降反向传播实例分析
-
python中的Pytorch建模流程是什么
python中的Pytorch建模流程是什么小编给大家分享一下py...
-
pytorch如何实现多项式回归
-
pytorch怎样实现线性回归