2026 年 3 月,谷歌研究院推出号称能“重塑 AI 效率”的极端压缩算法 TurboQuant,宣称可将大模型键值缓存(KV Cache)内存占用降至 1/6,推理速度提升 8 倍。然而,仅仅两天后,这场技术盛宴便因一起严重的学术伦理指控而蒙上阴影。
苏黎世联邦理工学院 (ETH Zurich) 博士后、经典量化算法 RaBitQ 的第一作者 高健扬 公开指责谷歌团队在 TurboQuant 论文中存在严重的不当行为,包括歪曲事实、不公平对比以及刻意隐瞒方法论来源。更令人震惊的是,高健扬透露,这些问题在论文投稿前就已向谷歌团队指出并获承认,但对方选择不予修正。

核心指控:三大“罪状”
高健扬在公开声明中详细列举了 TurboQuant 论文的三个主要问题:
1. 刻意隐瞒方法论同源 (JL 变换)
- 指控:TurboQuant 的核心步骤中包含了一个关键的随机旋转 (Random Rotation) 操作,这正是 RaBitQ 算法的基石(基于 Johnson-Lindenstrauss 变换)。
- 问题:谷歌论文在描述该技术时,未披露其与 RaBitQ 的联系,仿佛这是谷歌的原创发现,避免了承认关键方法论上的相似性。
2. 无证据抹黑前人理论
- 指控:谷歌论文在没有任何理论证明或实验数据支持的情况下,径直将 RaBitQ 的理论界限标记为 “次优 (Suboptimal)”。
- 事实:高健扬指出,RaBitQ 早在 FOCS'17 (计算机科学顶级会议) 上就已证明了其渐近最优性。谷歌的指责不仅错误,且具有误导性。
3. 极其不公的实验对比
- 指控:为了凸显 TurboQuant 的优越性,谷歌设计了完全不对等的实验环境。
- 细节:
- 测试 RaBitQ 时:使用的是 单核 CPU。
- 测试 TurboQuant 时:使用的是强大的 NVIDIA A100 GPU。
- 后果:这种“田忌赛马”式的对比,人为制造了 TurboQuant 性能碾压的假象,严重误导了读者和业界。
事前警告被无视:从“承认”到“冷处理”
最令学术界愤慨的是谷歌团队的态度。高健扬透露:
- 事前沟通:在论文提交至 ICLR 2026 之前,他的团队就已联系谷歌作者,明确指出了上述问题和担忧。
- 对方回应:谷歌作者当时承认了这些问题的存在。
- 最终选择:尽管已知晓错误,谷歌团队仍选择不修改论文,直接提交并最终被 ICLR 2026 接收。
“在这样的传播规模下(浏览量达数千万次),未经修正的言论很快就会变成所谓的‘共识’。” —— 高健扬
后续行动:正式投诉已提交
面对谷歌的“既定事实”策略,高健扬表示已不再沉默,采取了以下行动:
- 公开揭露:通过社交媒体和学术社区公开详细指控,还原事实真相。
- 正式投诉:已向 ICLR 2026 组委会 及 谷歌研究院 提交了正式的学术不端投诉,要求重新审查该论文,并纠正其中的错误陈述和不公平对比。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...














