1 模型训练时出现的问题
内存容量和磁盘IO速度影响GPU利用率,进而影响模型训练速度
如果要想在模型训练时利用GPU,提高GPU的利用率,不受限于IO瓶颈,一般常用的方式是:
- 数据预加载,将所有数据都预加载到内存中,内存的读写速度很快,从内存传递数据到GPU速度也很快
- 数据预先离线处理,然后存储在固态硬盘中,在模型训练时,从固态硬盘中读取数据传递到GPU中,但是其实这种方式也是受限于固态硬盘的读取速度
那么先描述下我今天面对的问题,我最近在做一个图片的二分类问题,自己建了一个100W+的图片大数据集,每张图片分辨率为256x256。
1.1 数据预加载到内存中-受限于内存容量
如果我们采取数据预加载的方式,需要将100W+的图片预先加载到内存中,那么100W+图片需要多少内存呢?
我们这里可以算一下,每一张图片占用内存256x256x3 = 196608个字节,那么100W图片需要1000000x196608=196608000000个字节=192000000kb=187500mb=183.1gb,但是我本地的内存只有64GB,没有办法将所有的图片都预加载到内存中,所以由于内存容量不够导致我们不得不放弃数据预加载到内存中的方式。
1.2 数据预先处理,存储在磁盘中-受限于磁盘IO速度
所以由于数据集数目巨大,在Pytorch中写Dataloader时,我先在__init__
函数中获取所有的图片的路径,然后在__getitem__
函数中根据图片路径读取图片数据,并进行数据增强,这种在模型训练的过程中读取文件并从内存发送到GPU进行训练的方式极大地依赖磁盘的读写速度,如果磁盘的读写速度很差,那么GPU将受限于IO瓶颈,并不能发挥GPU的全部性能。
我先将这100W+的图片数据集放在了一个机械硬盘中进行训练,硬盘是希捷酷鱼4T 7200转,设置Dataloader的参数为num_workers=8
,pin_memory=True
,batch_size=256
,GPU为3090 24G,在训练的过程中,GPU的利用率在长时间段为0%,短时间跳动到7%,这就是典型的GPU在等待CPU从磁盘中读取数据的表现。
为了进行比较,我之后将这100W+的图片数据集放在固态硬盘三星 980 1T上,Dataloader的参数与上述保持一致,GPU同样为3090 24G,GPU的利用率长期保持在20%,训练速度得到提升。
1.3 小结
从上述文章中,我们知道,影响模型训练速度不仅仅是跟你的GPU硬件相关,如果在你的GPU的速度足够好的情况下,如果训练速度还是达不到,那么就需要从内存频率,磁盘IO速度,CPU负载上进行排查,上述的内存频率、磁盘IO速度、CPU的处理速度都可能是限制你训练速度上不去的原因,所以说深度学习需要各个硬件在全方位上进行匹配,以达到更快的训练速度。
本文作者:StubbornHuang
版权声明:本文为站长原创文章,如果转载请注明原文链接!
原文标题:深度学习 – 在大数据集下,内存容量与磁盘IO速度影响模型训练速度的问题
原文链接:https://www.stubbornhuang.com/2542/
发布于:2023年03月16日 17:22:40
修改于:2023年06月21日 17:05:34
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。
评论
52