T3:透明跟踪和触发,细粒度计算与集合的重叠
大型语言模型在训练和推断中越来越依赖于分布式技术。这些技术需要在设备之间进行通信,随着设备数量的增加,这可能会降低扩展效率。虽然一些分布式技术可以重叠,从而隐藏独立计算的通信,但类似张量并行(TP)的技术固有地将通信与模型执行串行化。隐藏这种串行化通信的一种方法是以细粒度的方式将其与生产者操作(通信数据的产生)交错在一起。然而,在软件中实现这种细粒度的通信和计算交错可能很困难。此外,与任何并发执行一样,它需要在计算和通信之间共享计算和内存资源,导致资源争用,从而降低了重叠效率。为了克服这些挑战,我们提出了T3,它应用硬件-软件共同设计,透明地重叠串行通信,同时最小化与计算的资源争用。T3通过简单配置生产者的输出地址空间,透明地融合了生产者操作和随后的通信,需要进行轻微的软件更改。在硬件层面,T3添加了轻量级的跟踪和触发机制,以编排生产者的计算和通信。它进一步利用增强计算的存储器来进行通信的相关计算。因此,T3减少了资源争用,并有效地将串行通信与计算重叠。对于重要的Transformer模型,如T-NLG,T3将通信密集型子层的速度提高了30%的几何平均值(最大47%),并将数据移动减少了22%的几何平均值(最大36%)。此外,随着模型的扩展,T3的好处仍然存在:对于sim500亿参数模型的子层,几何平均值为29%,PALM和MT-NLG。
(来源:站长之家)
免责声明:本站文章部分内容为本站原创,另有部分容来源于第三方或整理自互联网,其中转载部分仅供展示,不拥有所有权,不代表本站观点立场,也不构成任何其他建议,对其内容、文字的真实性、完整性、及时性不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容,不承担相关法律责任。如发现本站文章、图片等内容有涉及版权/违法违规或其他不适合的内容, 请及时联系我们进行处理。