血洗內存股900億刀的谷歌AI論文,竟涉嫌學術造假

血洗內存股900億刀的谷歌AI論文,竟涉嫌學術造假

文章圖片

血洗內存股900億刀的谷歌AI論文,竟涉嫌學術造假

文章圖片

血洗內存股900億刀的谷歌AI論文,竟涉嫌學術造假

文章圖片

血洗內存股900億刀的谷歌AI論文,竟涉嫌學術造假

文章圖片

血洗內存股900億刀的谷歌AI論文,竟涉嫌學術造假

編輯|澤南、楊文
沒想到這次大面積市場震蕩 , 還引出了學術大瓜 。
本周五晚 , 谷歌的學術不端事件成為了 AI 圈的焦點 。
來自蘇黎世聯邦理工學院(ETH Zurich)的博士后高健揚在知乎發布文章 , 表示 Google Research 論文「TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate」中 , 有關已有的 RaBitQ 向量量化算法的描述、理論結果對比、實驗對比均存在嚴重問題 , 且相關問題早在論文投稿前便已被明確指出 , 卻被作者方刻意忽視 。

作為能夠干翻一片「主線」邏輯公司的 AI 研究 , TurboQuant 在業界的含金量似乎毋庸置疑 。 然而誰能想到 , 這篇被谷歌推上神壇、擁有千萬級曝光量的 ICLR 頂會論文 , 其最核心的技術底座卻深陷「抄襲」疑云 。
引發內存股震蕩的 TurboQuant
谷歌的 TurboQuant 論文最近火出了 AI 研究領域 , 這篇被全球 AI 研究頂會 ICLR 2026 接收的論文介紹了一種壓縮算法 , 聲稱能夠將大語言模型的 KV 緩存內存占用減少至少 6 倍 , 速度提升高達 8 倍 , 且精度零損失 。
TurboQuant 于 2025 年 4 月公開于預印版論文平臺 arXiv 上 , 2026 年 1 月被 ICLR 2026 接收 , 3 月 24 日經谷歌研究博客介紹引發了巨量關注 。

谷歌在 X 上的宣傳貼瀏覽量達到了上千萬 。
在 AI 大模型的推理時 , AI 每次生成一個新詞都需要「回顧」對話歷史(上下文) , 這部分內容被存儲于 KV 緩存上 。 因此 , KV 緩存占用的內存往往會成為限制大模型速度和成本的最大瓶頸 。 TurboQuant 提出的極限無損壓縮方法效果驚人 , 由于能夠大幅降低運行大模型所需的硬件資源 , 它直接沖擊了市場對內存芯片爆發式增長的預期 。
在谷歌博客發布的當天 , 美國內存股集體暴跌 , 閃迪一度跌 6.5% , 希捷科技跌超 5% , 西部數據跌超 4% , 美光科技跌 4% 。 市場一天蒸發的市值超過了 900 億美元 。

這項被谷歌大肆宣傳的技術到底是怎么做到的?簡單來說 , 它用一套精妙的方法解決了內存消耗的死結 。
TurboQuant 通過兩階段壓縮實現這一目標:第一階段利用「隨機旋轉」和 PolarQuant 機制將高維向量映射到極坐標 , 實現極限壓縮;第二階段利用 Quantized Johnson-Lindenstrauss (QJL) 變換 , 使用僅 1 bit 的空間來修正內積計算的偏差 。
然而 , 正是這部分技術 , 成為了引爆學術丑聞的導火索 。
ETH Zurich 的高健揚博士列舉證據表示 , 這項被谷歌宣傳的「革命性」核心機制并非谷歌首創 , 其在兩年前就已經被他的團隊完整提出 。
更令人氣憤的是 , 谷歌在其論文中刻意「回避」和「淡化」了先行技術 。
RaBitQ 作者公開質疑:
TurboQuant 的核心方法 , 兩年前就有
RaBitQ 系列論文于 2024 年發表 , 提出了一種高維向量量化方法 , 并從理論上證明其達到了理論計算機頂級會議論文給出的漸近最優誤差界 。
RaBitQ 和擴展版分別發表于頂級會議 SIGMOD 2024 和 SIGMOD 2025 。

RaBitQ 的核心思路之一 , 是在量化前對輸入向量施加隨機旋轉(random rotation / Johnson-Lindenstrauss 變換) , 利用旋轉后坐標分布的性質做向量量化 , 在理論上實現最優誤差界 。
而 TurboQuant 的方法核心同樣是在量化前對輸入向量施加隨機旋轉(Johnson-Lindenstrauss 變換) , 這一點 , 甚至是 TurboQuant 作者自己在 ICLR 審稿回復中親口描述的 。

然而 , TurboQuant 論文全程刻意回避了與 RaBitQ 在方法上的直接關聯 , 反而在正文中將 RaBitQ 描述為 grid-based PQ , 并且在描述中忽略了 RaBitQ 中核心的 random rotation 步驟 , 有意模糊兩者之間的傳承關系 。
TurboQuant 的第二作者 Majid Daliri 早在 2025 年 1 月便曾主動聯系高健揚 , 請求協助調試其自行用 Python 復現的 RaBitQ 代碼 , 這說明 TurboQuant 團隊對 RaBitQ 的技術細節知之甚詳 。
既然早已知曉并請教過原作者 , 為何在最終的論文中不進行合理的引用和客觀對比?
高健揚團隊在發現這些問題后本著學術嚴謹的態度 , 從 2025 年 5 月起就通過郵件與 TurboQuant 團隊進行了多次私下溝通 , 并明確指出了其中的事實性錯誤 。
然而 TurboQuant 團隊以「隨機旋轉已成為領域標準技術 , 無法引用每一個使用它的方法」為由拒絕修正 。 隨后 , 這篇論文不僅被推上了 ICLR 2026 , 還成為了全球關注的焦點 。
這樣的學術敘事如果不被糾正 , 就會逐漸成為共識 。 高健揚團隊最終下場列出了幾項指控 。
三項具體指控
高健揚在文章中列出了三項具體問題 。
第一 , 系統性回避技術相似性 。
TurboQuant 不僅未能正面討論兩者方法的結構聯系 , 反而還將原本正文中對 RaBitQ 不完整描述移到了附錄中 , 這一舉動甚至發生在審稿人已明確指出「RaBitQ and variants are similar to TurboQuant in that they all use random projection」并要求充分討論之后 。
TurboQuant 作者回復稱「隨機旋轉和 Johnson-Lindenstrauss 變換的使用已經是該領域的標準技術 , 我們不可能引用每一篇使用了這些方法的論文」 。
高健揚團隊認為這一回應是在轉移矛盾:作為在相同問題設定下率先將隨機旋轉(Johnson-Lindenstrauss 變換)與向量量化結合、并建立最優理論保證的具體先行工作 , RaBitQ 應當在文中被準確描述 , 其與 TurboQuant 方法的聯系應當充分討論 。
第二 , 錯誤描述 RaBitQ 的理論結果 。
TurboQuant 論文將 RaBitQ 的理論保證定性為「次優(suboptimal)」 , 并歸因于「較粗糙的分析(loose analysis)」 , 卻未給出任何推導、對比或證據 。
事實是在拓展版 RaBitQ 論文(arXiv:2409.09913)的 Theorem 3.2 中 , 已經嚴格證明 RaBitQ 的誤差界達到了理論計算機頂級會議論文(Alon-Klartag FOCS 2017)給出的漸近最優誤差界 。 因為這一結果 , 高健揚團隊被邀請至理論計算機科學頂級會議 FOCS 的 Workshop 進行報告 。
2025 年 5 月 , 高健揚團隊與 TurboQuant 的第二作者 Majid Daliri 進行了多輪詳細的郵件技術討論 , 逐條澄清了這一錯誤解讀 , Majid Daliri 也明確表示已告知全體共同作者 。 然而這一錯誤定性在論文經歷完整審稿、被接收乃至大規模宣發的全過程中 , 始終未被更正 。
第三 , 刻意制造不公平的實驗條件 。
TurboQuant 論文測試 RaBitQ 速度時 , 既未使用官方開源的 C++ 實現 , 轉而用了 Majid Daliri 自己翻譯的 Python 版本 , 又將 RaBitQ 限制在單核 CPU、關閉多線程的條件下運行 , 而 TurboQuant 自身則使用 NVIDIA A100 GPU 進行測試 。 這兩層系統性的不公平條件均未在論文中明確披露 。
Majid Daliri 本人在 2025 年 5 月的郵件中曾承認了單核限制這一情況 , 但論文仍將由此得出的「RaBitQ 比 TurboQuant 慢數個數量級」的結論呈現給讀者 , 卻未附任何說明 。
選擇公開發聲
高健揚表示 , 他們在 2025 年 11 月便發現 TurboQuant 提交了 ICLR 2026 , 隨即聯系 ICLR Program Committee Chairs , 但未獲任何回應 。
2026 年 1 月論文正式被接收后 , 谷歌開始通過官方渠道大規模推廣 , 相關內容在社交媒體上的瀏覽量迅速達到數千萬次 。
2026 年 3 月 , 高健揚團隊再次正式致函 TurboQuant 全體作者 , 要求說明與更正 。 目前收到的回復來自第一作者 Amir Zandieh , 承諾會在 ICLR 會議正式結束后修正問題二和問題三 , 但拒絕就技術相似性問題作出任何討論 。
高健揚已在 ICLR OpenReview 平臺發布公開評論 , 并向 ICLR General Chairs、PC Chairs 及 Code and Ethics Chairs 提交了包含完整證據的正式投訴 , 同時表示將在 arXiv 發布關于 TurboQuant 和 RaBitQ 的詳細技術報告 , 并保留進一步向相關機構反映的選項 。

他在文末寫道:「一篇論文被 Google 以數千萬曝光量推向公眾 , 在這種體量下 , 論文中錯誤的敘事不需要主動傳播 , 只需要不被糾正 , 就會自動成為共識 。 」
目前 , 高健揚等人的主張得到了很多人的支持 。


很多人表示 , 谷歌在 AI 研究上這樣的做法已經不是第一次了 。
或許谷歌與 ICLR 官方需要給出解釋 。
參考內容:
https://zhuanlan.zhihu.com/p/2020969476166808284
https://x.com/gaoj0017/status/2037532673812443214
https://openreview.net/forum?id=tO3ASKZlok
【血洗內存股900億刀的谷歌AI論文,竟涉嫌學術造假】https://research.google/blog/turboquant-redefining-ai-efficiency-with-extreme-compression/

    推薦閱讀