智东西 03-30
干崩存储股的谷歌爆红论文塌房!被曝抄袭、贬低华人学者成果,谷歌回应:晚点改
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

智东西

作者 | 陈骏达

编辑 | 李水青

谷歌干崩内存股的论文,竟被曝出学术不端?

智东西 3 月 29 日报道,近日,谷歌的 TurboQuant 论文引发全网广泛关注。该论文提出的 TurboQuant 技术,据说能将大模型 KV 缓存的内存占用压缩至原来的 1/6,似乎给当下的 "AI 存储荒 " 提供了解决思路,因此一度引发美股多支存储股大跌,市值合计蒸发超过 900 亿美元(约合人民币 6220 亿元)。

然而,反转也来得很快。3 月 27 日,苏黎世联邦理工学院计算机博士后、RaBitQ 论文作者华人高健扬发布文章,指出谷歌的 TurboQuant 论文存在三大问题:系统性地回避了其与已有 RaBitQ 方法(2024 年发布)的相似性,错误描述了 RaBitQ 的理论结果,并刻意营造不公的实验环境。

高健扬在知乎上发表的澄清文章

并且,谷歌 TurboQuant 团队可能还存在 " 知错不改 " 的嫌疑。高健扬称,早在 2025 年 5 月,在 TurboQuant 论文正式投稿至 ICLR 2026 之前,RaBitQ 团队已经向作者指出了论文存在的问题,TurboQuant 团队承认了相关问题,但选择不予修复。

高健扬在 X 平台上发表的推文

今天下午,高健扬更新了知乎帖子,称他们仅收到 TurboQuant 论文第一作者 Amir Zandieh 的笼统答复,承诺会修正对 RaBitQ 理论结果的错误描述和实验环境差异,但拒绝在文中讨论 TurboQuant 与 RaBitQ 在技术上的相似性。

并且,TurboQuant 团队仅愿意在今年 4 月 ICLR 2026 正式会议结束之后才做相应修正。

高健扬称,他决定此时公开说明这一事件,是因为错误的学术叙事一旦广泛传播,纠正的成本会越来越高。

高健扬在知乎上发布的公开澄清文章:

https://zhuanlan.zhihu.com/p/2020969476166808284?wechatShare=1&s_r=0

一、KV 缓存砍至 1/6、推理提速 8 倍,TurboQuant 具体做了什么?

在厘清事实之前,我们需要首先看看谷歌的 TurboQuant 究竟提出了什么方法。

向量量化一直是 AI 数据 " 瘦身 " 的主流技术,主要用于压缩高维向量、节省内存、提升检索与推理效率。但传统压缩方法通常会引入额外的内存开销,反而会影响向量量化的效果。

谷歌提出的 TurboQuant 是一种无损极限压缩算法,该算法主要通过两个关键步骤,在实现零精度损失的同时大幅缩小模型尺寸。

TurboQuant 博客

第一步是高质量压缩(PolarQuant 方法)。TurboQuant 首先对数据向量进行随机旋转。这一操作能够简化数据的几何结构,从而便于使用标准且高质量的模型量化器。

通过这一阶段,TurboQuant 能够将大部分压缩能力(即多数比特)用于捕捉原始向量的主要特征和强度。

第二步是消除隐藏误差。TurboQuant 仅用少量剩余压缩能力(仅 1 比特),对第一阶段残留的微小误差应用 QJL 算法。QJL 阶段相当于一个数学误差检查器,能够消除偏差,从而获得更加精准的注意力评分。

QJL 采用一种了称为 "Johnson-Lindenstrauss 变换 " 的方法,缩小复杂、高维数据,同时保持数据点之间的基本距离和关系。

实验中,谷歌称 TurboQuant 在所有基准测试中均达到了 " 完美的下游任务表现 ",同时将 KV 缓存的内存占用减至 1/6。

TurboQuant 基准测试结果

使用 TurboQuant 计算注意力逻辑值后,在 H100 GPU 加速器上,4 比特 TurboQuant 相比 32 比特未量化的键值实现了高达 8 倍的性能提升。

TurboQuant 性能测试结果

二、RaBitQ 论文作者完整复盘:去年就已提出质疑,TurboQuant 团队不回邮件

TurboQuant 论文在 3 月 25 日被 "Google Research" 官方账号转发后,获得了海量关注。然而,这篇论文与 2024 年 5 月由高健扬等人发布 RaBitQ 论文,有不少说不清道不明的联系。

高健扬在他发布的知乎帖子中回顾了相关争议的完整时间线:

高健扬回顾事件完整时间线

可以看到,在 2024 年,RaBitQ 团队就陆续发布了论文的预印本和扩展版,同时开源了相关代码。这篇论文还发表在顶级会议 SIGMOD 上。

2025 年 1 月,TurboQuant 论文第二作者 Majid Daliri 与 RaBitQ 团队取得联系,请求协助调试 Python 版 RaBitQ 实现,三个月后 TurboQuant 论文在 arXiv 发布。

TurboQuant 发布后,RaBitQ 团队很快发现了 TurboQuant 团队针对 RaBitQ 采用了不同的实验条件,然而 TurboQuant 团队在被要求修改事实性错误后,采取了消极态度,停止回复邮件。

2025 年 11 月,TurboQuant 论文被提交至 ICLR 2026,相关错误并未修改,RaBitQ 团队联系 ICLR 2026 后也未获得回应。

在高健扬看来,TurboQuant 论文至少存在三个问题。

问题一:系统性地回避 TurboQuant 方法与已有 RaBitQ 方法的相似性

RaBitQ 与 TurboQuant 在方法层面有直接的结构联系,两者都在量化前对输入向量施加随机旋转(Johnson-Lindenstrauss 变换)。这是两篇论文方法设计中最核心、最接近的部分。

对于这一质疑,TurboQuant 团队曾回复道:" 随机旋转和 Johnson-Lindenstrauss 变换已成为该领域的标准技术,我们无法列举所有使用这些方法的方法。"

高健扬认为这一回应是在转移矛盾:作为在相同问题设定下,率先将随机旋转(Johnson-Lindenstrauss 变换)与向量量化结合、并建立最优理论保证的先行工作,RaBitQ 应当在文中被准确描述,其与 TurboQuant 方法的联系应当充分讨论。

问题二:错误描述 RaBitQ 的理论结果

高健扬称,TurboQuant 论文在不提供任何论据的情况下,将 RaBitQ 的理论保证定性为 " 次优 ",将原因归结为 " 较粗糙的分析(loose analysis)"。

然而,RaBitQ 的误差界实际上已经达到了理论计算机顶级会议论文(Alon-Klartag,FOCS 2017)给出的渐近最优误差界,并因这一结果被邀请至理论计算机科学顶级会议 FOCS 的 Workshop 进行报告。

2025 年,RaBitQ 团队与 TurboQuant 的第二作者 Majid Daliri 进行了多轮详细的邮件技术讨论,澄清 TurboQuant 团队对 RaBitQ 理论结果的错误解读,然而相关错误定性一直未被修正。

问题三:刻意创造不公平的实验环境

TurboQuant 团队在测试 RaBitQ 和 TurboQuant 时采用了不同的实验设置。

具体来看,TurboQuant 团队使用单核 CPU、关闭多线程并行的设置来测试 RaBitQ 算法,但却使用英伟达 A100 GPU 测试 TurboQuant 算法。

TurboQuant 团队还使用了自己翻译的 Python 代码,而非 RaBitQ 团队开源的 C++ 实现,前者的效果要差于后者。

同时,以上两点差异均未在论文中充分披露。

三、论文评审发帖:只提一次 RaBitQ,我是震惊的

RaBitQ 团队的维权,获得了一些网友和学术圈人士的声援。

TurboQuant 论文的一位评审者在公开的学术论文评审平台 OpenReview 发表评论,称他虽然认为 TurboQuant 的理论分析和实验结果都很出色,但是也发现这一方法与 RaBitQ 存在明显的共通之处,并要求 TurboQuant 团队比较两者在设计上的差异如何影响性能。

然而,在查看 TurboQuant 的最终版本时,他惊讶地发现在论文的实验部分 RaBitQ 仅被提到了一次。

TurboQuant 论文评审谈这篇论文的问题

在知乎上,有位网友称自己去年读 TurboQuant 论文时,就感受到其与 RaBitQ 的相似之处,更像是把 RaBitQ 换了一种表达方式,在 GPU 上实现一遍,创新性不够。

知乎网友评论 TurboQuant 创新性问题

还有网友称,自己复现了 TurboQuant,发现至少在向量检索领域 TurboQuant 的召回率低于 RaBitQ。

知乎网友质疑 TurboQuant 复现结果

X 平台上,有网友评价道,在论文提交前问题就被指出,但却被忽略,这是最糟糕的结果。这意味着 TurboQuant 团队明明意识到问题存在却故意保留了下来。虽然同行评审流程应该能发现这些问题,但 ICLR 的接收并不总是意味着技术论断站得住脚。

X 平台网友评价 TurboQuant 涉嫌学术不端事件

结语:顶会论文、大厂标签不是护身符,学术叙事不容 " 带病传播 "

截至目前,TurboQuant 与 RaBitQ 之间的争议尚未有官方定论。然而,学术研究的核心在于 " 可追溯 " 与 " 可复现 "。当一篇论文被顶级会议接收,并通过大型科技公司的渠道获得千万级曝光时,其技术叙事的影响力已远超学术圈本身,甚至波及资本市场。

在这种情况下,对先行工作的准确引用、对实验条件的完整披露、对质疑的及时回应,便不再是可有可无的环节,而是维护学术共同体公信力的基本责任。

目前,RaBitQ 论文团队已向 ICLR 官方再次提交正式投诉和完整证据包。未来,他们还考虑在 arXiv 上发布详细技术报告,进一步呈现两项研究的关系。

无论结果如何,它都再次提醒我们,对学术规范的敬畏、对先行者的尊重,以及对每一份实验数据的诚实,始终是不可逾越的底线。

智东西

作者 | 陈骏达

编辑 | 李水青

谷歌干崩内存股的论文,竟被曝出学术不端?

智东西 3 月 29 日报道,近日,谷歌的 TurboQuant 论文引发全网广泛关注。该论文提出的 TurboQuant 技术,据说能将大模型 KV 缓存的内存占用压缩至原来的 1/6,似乎给当下的 "AI 存储荒 " 提供了解决思路,因此一度引发美股多支存储股大跌,市值合计蒸发超过 900 亿美元(约合人民币 6220 亿元)。

然而,反转也来得很快。3 月 27 日,苏黎世联邦理工学院计算机博士后、RaBitQ 论文作者华人高健扬发布文章,指出谷歌的 TurboQuant 论文存在三大问题:系统性地回避了其与已有 RaBitQ 方法(2024 年发布)的相似性,错误描述了 RaBitQ 的理论结果,并刻意营造不公的实验环境。

高健扬在知乎上发表的澄清文章

并且,谷歌 TurboQuant 团队可能还存在 " 知错不改 " 的嫌疑。高健扬称,早在 2025 年 5 月,在 TurboQuant 论文正式投稿至 ICLR 2026 之前,RaBitQ 团队已经向作者指出了论文存在的问题,TurboQuant 团队承认了相关问题,但选择不予修复。

高健扬在 X 平台上发表的推文

今天下午,高健扬更新了知乎帖子,称他们仅收到 TurboQuant 论文第一作者 Amir Zandieh 的笼统答复,承诺会修正对 RaBitQ 理论结果的错误描述和实验环境差异,但拒绝在文中讨论 TurboQuant 与 RaBitQ 在技术上的相似性。

并且,TurboQuant 团队仅愿意在今年 4 月 ICLR 2026 正式会议结束之后才做相应修正。

高健扬称,他决定此时公开说明这一事件,是因为错误的学术叙事一旦广泛传播,纠正的成本会越来越高。

高健扬在知乎上发布的公开澄清文章:

https://zhuanlan.zhihu.com/p/2020969476166808284?wechatShare=1&s_r=0

一、KV 缓存砍至 1/6、推理提速 8 倍,TurboQuant 具体做了什么?

在厘清事实之前,我们需要首先看看谷歌的 TurboQuant 究竟提出了什么方法。

向量量化一直是 AI 数据 " 瘦身 " 的主流技术,主要用于压缩高维向量、节省内存、提升检索与推理效率。但传统压缩方法通常会引入额外的内存开销,反而会影响向量量化的效果。

谷歌提出的 TurboQuant 是一种无损极限压缩算法,该算法主要通过两个关键步骤,在实现零精度损失的同时大幅缩小模型尺寸。

TurboQuant 博客

第一步是高质量压缩(PolarQuant 方法)。TurboQuant 首先对数据向量进行随机旋转。这一操作能够简化数据的几何结构,从而便于使用标准且高质量的模型量化器。

通过这一阶段,TurboQuant 能够将大部分压缩能力(即多数比特)用于捕捉原始向量的主要特征和强度。

第二步是消除隐藏误差。TurboQuant 仅用少量剩余压缩能力(仅 1 比特),对第一阶段残留的微小误差应用 QJL 算法。QJL 阶段相当于一个数学误差检查器,能够消除偏差,从而获得更加精准的注意力评分。

QJL 采用一种了称为 "Johnson-Lindenstrauss 变换 " 的方法,缩小复杂、高维数据,同时保持数据点之间的基本距离和关系。

实验中,谷歌称 TurboQuant 在所有基准测试中均达到了 " 完美的下游任务表现 ",同时将 KV 缓存的内存占用减至 1/6。

TurboQuant 基准测试结果

使用 TurboQuant 计算注意力逻辑值后,在 H100 GPU 加速器上,4 比特 TurboQuant 相比 32 比特未量化的键值实现了高达 8 倍的性能提升。

TurboQuant 性能测试结果

二、RaBitQ 论文作者完整复盘:去年就已提出质疑,TurboQuant 团队不回邮件

TurboQuant 论文在 3 月 25 日被 "Google Research" 官方账号转发后,获得了海量关注。然而,这篇论文与 2024 年 5 月由高健扬等人发布 RaBitQ 论文,有不少说不清道不明的联系。

高健扬在他发布的知乎帖子中回顾了相关争议的完整时间线:

高健扬回顾事件完整时间线

可以看到,在 2024 年,RaBitQ 团队就陆续发布了论文的预印本和扩展版,同时开源了相关代码。这篇论文还发表在顶级会议 SIGMOD 上。

2025 年 1 月,TurboQuant 论文第二作者 Majid Daliri 与 RaBitQ 团队取得联系,请求协助调试 Python 版 RaBitQ 实现,三个月后 TurboQuant 论文在 arXiv 发布。

TurboQuant 发布后,RaBitQ 团队很快发现了 TurboQuant 团队针对 RaBitQ 采用了不同的实验条件,然而 TurboQuant 团队在被要求修改事实性错误后,采取了消极态度,停止回复邮件。

2025 年 11 月,TurboQuant 论文被提交至 ICLR 2026,相关错误并未修改,RaBitQ 团队联系 ICLR 2026 后也未获得回应。

在高健扬看来,TurboQuant 论文至少存在三个问题。

问题一:系统性地回避 TurboQuant 方法与已有 RaBitQ 方法的相似性

RaBitQ 与 TurboQuant 在方法层面有直接的结构联系,两者都在量化前对输入向量施加随机旋转(Johnson-Lindenstrauss 变换)。这是两篇论文方法设计中最核心、最接近的部分。

对于这一质疑,TurboQuant 团队曾回复道:" 随机旋转和 Johnson-Lindenstrauss 变换已成为该领域的标准技术,我们无法列举所有使用这些方法的方法。"

高健扬认为这一回应是在转移矛盾:作为在相同问题设定下,率先将随机旋转(Johnson-Lindenstrauss 变换)与向量量化结合、并建立最优理论保证的先行工作,RaBitQ 应当在文中被准确描述,其与 TurboQuant 方法的联系应当充分讨论。

问题二:错误描述 RaBitQ 的理论结果

高健扬称,TurboQuant 论文在不提供任何论据的情况下,将 RaBitQ 的理论保证定性为 " 次优 ",将原因归结为 " 较粗糙的分析(loose analysis)"。

然而,RaBitQ 的误差界实际上已经达到了理论计算机顶级会议论文(Alon-Klartag,FOCS 2017)给出的渐近最优误差界,并因这一结果被邀请至理论计算机科学顶级会议 FOCS 的 Workshop 进行报告。

2025 年,RaBitQ 团队与 TurboQuant 的第二作者 Majid Daliri 进行了多轮详细的邮件技术讨论,澄清 TurboQuant 团队对 RaBitQ 理论结果的错误解读,然而相关错误定性一直未被修正。

问题三:刻意创造不公平的实验环境

TurboQuant 团队在测试 RaBitQ 和 TurboQuant 时采用了不同的实验设置。

具体来看,TurboQuant 团队使用单核 CPU、关闭多线程并行的设置来测试 RaBitQ 算法,但却使用英伟达 A100 GPU 测试 TurboQuant 算法。

TurboQuant 团队还使用了自己翻译的 Python 代码,而非 RaBitQ 团队开源的 C++ 实现,前者的效果要差于后者。

同时,以上两点差异均未在论文中充分披露。

三、论文评审发帖:只提一次 RaBitQ,我是震惊的

RaBitQ 团队的维权,获得了一些网友和学术圈人士的声援。

TurboQuant 论文的一位评审者在公开的学术论文评审平台 OpenReview 发表评论,称他虽然认为 TurboQuant 的理论分析和实验结果都很出色,但是也发现这一方法与 RaBitQ 存在明显的共通之处,并要求 TurboQuant 团队比较两者在设计上的差异如何影响性能。

然而,在查看 TurboQuant 的最终版本时,他惊讶地发现在论文的实验部分 RaBitQ 仅被提到了一次。

TurboQuant 论文评审谈这篇论文的问题

在知乎上,有位网友称自己去年读 TurboQuant 论文时,就感受到其与 RaBitQ 的相似之处,更像是把 RaBitQ 换了一种表达方式,在 GPU 上实现一遍,创新性不够。

知乎网友评论 TurboQuant 创新性问题

还有网友称,自己复现了 TurboQuant,发现至少在向量检索领域 TurboQuant 的召回率低于 RaBitQ。

知乎网友质疑 TurboQuant 复现结果

X 平台上,有网友评价道,在论文提交前问题就被指出,但却被忽略,这是最糟糕的结果。这意味着 TurboQuant 团队明明意识到问题存在却故意保留了下来。虽然同行评审流程应该能发现这些问题,但 ICLR 的接收并不总是意味着技术论断站得住脚。

X 平台网友评价 TurboQuant 涉嫌学术不端事件

结语:顶会论文、大厂标签不是护身符,学术叙事不容 " 带病传播 "

截至目前,TurboQuant 与 RaBitQ 之间的争议尚未有官方定论。然而,学术研究的核心在于 " 可追溯 " 与 " 可复现 "。当一篇论文被顶级会议接收,并通过大型科技公司的渠道获得千万级曝光时,其技术叙事的影响力已远超学术圈本身,甚至波及资本市场。

在这种情况下,对先行工作的准确引用、对实验条件的完整披露、对质疑的及时回应,便不再是可有可无的环节,而是维护学术共同体公信力的基本责任。

目前,RaBitQ 论文团队已向 ICLR 官方再次提交正式投诉和完整证据包。未来,他们还考虑在 arXiv 上发布详细技术报告,进一步呈现两项研究的关系。

无论结果如何,它都再次提醒我们,对学术规范的敬畏、对先行者的尊重,以及对每一份实验数据的诚实,始终是不可逾越的底线。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

谷歌 高健 知乎 ai
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论