针对大语言模型(LLMs)的量化感知训练(QAT)的统一缩放定律香港大学和字节跳动的研究人员介绍了一种针对大语言模型(LLMs)的量化感知训练(QAT)的统一缩放定律。量化是一种减少模型权重和激活精度的方法,以降低内存使用和计算成本。尽管现有的量化方法在中等精度...新技术# 大语言模型# 量化感知训练7个月前02340