新网Logo
首页>互联网热点>

为了不让 GPU 等 CPU,谷歌提出“数据回波”榨干 GPU 空闲时间,训练速度提升 3 倍多

登录 注册

为了不让 GPU 等 CPU,谷歌提出“数据回波”榨干 GPU 空闲时间,训练速度提升 3 倍多

  • 来源:网络
  • 更新日期:2020-05-14

摘要:因为通用计算芯片不能满足神经网络运算需求,越来越多的人转而使用 GPU 和 TPU 这类专用硬件加速器,加快神经网络训练的速度。但是,用了更快的 GPU 和 TPU 就一定能加速训练吗?

因为通用计算芯片不能满足神经网络运算需求,越来越多的人转而使用 GPU 和 TPU 这类专用硬件加速器,加快神经网络训练的速度。

但是,用了更快的 GPU 和 TPU 就一定能加速训练吗?

训练流水线的所有操作并不都是在加速器上运行。上游数据处理(如磁盘 I/O 和数据预处理)就不能在加速器上运行。

随着 GPU 等加速器越来越快,超过了 CPU、磁盘处理数据的速度,上游就逐渐成了训练瓶颈。

在某些情况下,GPU 上游的代码花费的时间甚至是 GPU 本身运行时间的几倍。上游没做完,下游只能空等,浪费了大量时间。

为此,Google AI 团队,提出一种简单的数据回波(Data Echoing)方法,可以解决这个问题。该方法最多能将训练速度加速 3 倍以上,且对模型的精度没有明显影响。

Jeff Dean 也在 Twitter 上转发点赞。

重复数据让 GPU 不空等

很多情况下,上游花费的时间比加速器更长,使用更快的 GPU 或 TPU 根本不会提高训练速度。如果投入大量的工程工作以及额外的计算资源,确实可以加快流水线的速度。

对于非常小的数据集,可以离线预先计算扩增的数据集,并将整个预处理的数据集加载到内存中。

但这种方法不适用于大多数机器学习训练场景,既耗时又分散了改善推理性能的主要目标。

与其等待更多的数据,不如利用已有的数据来使加速器保持忙碌状态。

在加速器空置 50% 情况下,预处理 batch 的第一个优化步骤之后,我们可以重复利用该 batch 再进行一次训练。

如果重复数据与新数据一样有用,训练效率会提高一倍。

实际上,由于重复数据不如新数据有用,因此数据回波提供的加速要小一些,但和加速器处于空闲状态相比,仍然可以提供明显的加速。

通常有几种方法可以在给定的神经网络训练管道中实现数据回波。

Google 提出的技术,是将数据复制到训练管道中某个位置的随机缓冲区中,无论在哪个阶段产生瓶颈之后,都可以将缓存数据插入任意位置。

数据回波在样本级别对数据进行混洗,而 batch 回波则对重复批次的序列进行混洗。另外还可以在数据扩充之前插入缓冲区,以使重复数据的每个副本略有不同,因此不是简单机械重复,而是更接近一个新样本。

加速 3 倍多,精度无损失

那么数据回波到底多有用呢?

Google 在五个神经网络训练管道上尝试了数据回波,涵盖了图像分类、语言建模和目标检测 3 个不同的任务,并测量了达到特定性能目标所需的新样本数量。

Google 发现,数据回波可以用更少的新样本来达到目标性能,这表明重复使用数据对于降低磁盘 I/O 很有用。在某些情况下,重复数据几乎与新数据一样有用。

在 ImageNet 的 ResNet-50 训练任务中,数据回波可以显著提高训练速度,加速了 3 倍以上。

从云存储中读取一批训练数据所花的时间是使用每一批数据执行训练步骤的 6 倍。因此数据最多可以重复 5 次。

我们将回波因子定义为重复每个数据项的次数,对于以上任务,回波因子最大是 5。如果重复样本与新样本一样有用,则应该带来 6 倍加速,而实际上只加速了 3.25 倍,但也相当可观。

可能有人会担心重复使用数据会损害模型的最终性能,但实验发现,测试的任何工作负载,数据回波都不会降低最终模型的质量。

随着 GPU 和 TPU 性能的继续提升,和通用处理器的差距会越来越大,Google 期望数据回波和类似策略将成为神经网络培训工具包中越来越重要的一部分。

怎么样,谷歌 AI 的这项最新研究,是不是也给你训练神经网络带来一些新启发?

\' \' 追踪 AI 技术和产品新动态

喜欢就点「在看」吧 !