随着大型语言模型 (LLM)参数规模的不断扩大,对大量内存占用和高通信带宽的需求已成为 LLM 训练和推理的重大瓶颈。为了缓解这些瓶颈,人们提出了各种张量压缩技术来减少数据大小,从而减轻内存需求和通信压力。 我们的研究发现,尽管视频编解码器最初是为压缩视频而设计的,但在压缩各种类型的张量时也表现出色。我们证明了视频编解码器可以是一种多功能的通用张量编解码器,同时在各种任务中实现最先进的压缩效率。我们进一步利用 GPU 上可用的硬件视频编码和解码模块,将视频编解码器重新用作张量编解码器,创建了一个能够进行推理和训练的框架。这大大降低了对内存容量和通信带宽的要求,使得在消费级 GPU 上进行大型模型的训练和推理成为可能。