谷歌一夜塌房!干崩內存股論文被曝抄襲,華人學者血淚控訴

谷歌一夜塌房!干崩內存股論文被曝抄襲,華人學者血淚控訴

文章圖片

谷歌一夜塌房!干崩內存股論文被曝抄襲,華人學者血淚控訴

文章圖片

谷歌一夜塌房!干崩內存股論文被曝抄襲,華人學者血淚控訴

文章圖片

谷歌一夜塌房!干崩內存股論文被曝抄襲,華人學者血淚控訴

文章圖片

谷歌一夜塌房!干崩內存股論文被曝抄襲,華人學者血淚控訴

文章圖片

谷歌一夜塌房!干崩內存股論文被曝抄襲,華人學者血淚控訴

文章圖片

谷歌一夜塌房!干崩內存股論文被曝抄襲,華人學者血淚控訴

文章圖片

谷歌一夜塌房!干崩內存股論文被曝抄襲,華人學者血淚控訴
編輯:好困 Aeneas
【新智元導讀】把閃存股一夜干崩的谷歌頂會論文 , 出大事了 。 TurboQuant的核心方法 , 兩年前就被一位華人學者做完、發完頂會、代碼全部開源了 。 谷歌不僅沒正面提及 , 而且還惡意操縱實驗數據把成果貶成「次優」 , 即使收到郵件也拒不改正 , 這就是大科技公司赤裸裸的學術霸凌!


就在剛剛 , 谷歌塌房了!
前幾天 , 谷歌一篇即將在ICLR 2026亮相的新論文 , 直接把存儲巨頭美光和西部數據的股價干崩了 。
Cloudflare CEO激動地發推稱:「這是谷歌的DeepSeek時刻!」


就在AI圈沉浸在興奮中 , 全世界都在為這篇論文歡呼之時 , 谷歌居然火速塌房了 。
3月27日晚上10點 , 一條推文打破了狂歡 。
蘇黎世聯邦理工學院博士后 , RaBitQ算法的第一作者高健揚公開表示:
TurboQuant論文在描述RaBitQ時存在嚴重問題 , 包括不正確的技術聲明和誤導性的理論、實驗對比——而這些問題在投稿前就已向作者指出 , 對方承認了 , 但選擇不修正 。


翻譯過來就是 , 谷歌的這篇論文 , 不僅抄襲了他們的核心代碼 , 還強行拉踩!
【谷歌一夜塌房!干崩內存股論文被曝抄襲,華人學者血淚控訴】

具體來說 , TurboQuant在核心方法(隨機旋轉)上與高健揚此前已發表的RaBitQ高度相似 , 但谷歌不僅未在正文中客觀探討 , 還在明知故犯的情況下 , 將RaBitQ的理論結果貶低為「次優」 。
而且 , 根據披露的郵件記錄 , TurboQuant團隊早在一年前就被私下告知了這些問題 , 但從未修正 。

原文地址:https://zhuanlan.zhihu.com/p/2020969476166808284?wechatShare=1&s_r=0
文章發布幾小時后 , 各大平臺的評論區里 , 全是網友們對谷歌激動地聲討 。

對于RaBitQ , 高健揚已經做了兩年研究 , 發表了兩篇頂會 , 而且代碼全部開源 。
然而現在 , 谷歌轉手就把他的成果「重新發明」了一遍 , 還榮登頂會 , 獲得全行業的稱贊 。
這簡直就是利用大廠光環歪曲事實的學術霸權行為!



谷歌的吃相太難看了


這次學術爭端 , 核心思路集中在向量量化上 。
向量量化 , 就是把高維空間里的向量「壓小」 , 在盡量不丟失信息的前提下省內存、省計算 。 此問題可以追溯到香農的信源編碼理論 , 是信息論里最經典的問題之一 。
早在2024年5月 , 高健揚團隊就在arXiv上發布了RaBitQ 。

論文地址:https://arxiv.org/abs/2405.12497
他們的核心思路是:
在量化之前 , 先對向量做一次隨機旋轉(Johnson-Lindenstrauss變換) 。 旋轉之后 , 向量每個坐標的分布變得可預測 , 就可以用更高效的方式做量化 。


雖然想法看起來很簡潔 , 但背后的理論工作卻很扎實 。
在24年9月 , 團隊又發表了擴展版論文 , 嚴格證明了這種方法達到了理論計算機頂級會議FOCS 2017給出的漸近最優誤差界 。
因此 , 高健揚被邀請到FOCS的Workshop做報告 。 隨后 , RaBitQ先后發表在數據庫領域頂會SIGMOD 2024和SIGMOD 2025上 , 代碼全部開源 。
誰能想到 , 這居然給谷歌的研究者們提供了方便 。
他們這次發表的TurboQuant , 核心也是隨機旋轉+向量量化 , 這不就是RaBitQ在2024年5月就公開發表的核心架構嗎?
可以說 , 谷歌 , 這就是在赤裸裸地抄襲!

谷歌這篇論文 , 已經被稱贊為「徹底改變AI格局」了



一封郵件 , 三個質疑 , 全部「已讀不回」


有人問 , 是不是這次谷歌只是漏引了一篇論文?
了解事件詳情后就會發現 , 谷歌的行為 , 比這要嚴重得多 , 惡劣得多!


第一 , 谷歌剽竊了他們的核心方法 , 卻假裝沒看見 。
谷歌在TurboQuant論文中 , 反復強調隨機旋轉是自己方法的關鍵步驟 , 但在描述RaBitQ時 , 只把它歸類為「grid-based PQ」(基于網格的乘積量化) , 完全跳過了RaBitQ中同樣核心的隨機旋轉步驟 。
因此在讀者看來 , RaBitQ仿佛是一個跟TurboQuant毫無關系的舊方法一樣 。
然而 , 谷歌真的不知道RaBitQ用了隨機旋轉嗎?絕不可能!
審稿過程中 , Reviewer Autm問了一個直球問題:「隨機旋轉是你們論文首創的嗎?」
TurboQuant作者在rebuttal中白紙黑字地回復:
The use of random rotation has been explored before (see references like Quarot RabitQ QJL etc).


(隨機旋轉的使用此前已有探索 , 參見Quarot、RabitQ、QJL等工作 。 )


所以很顯然 , 谷歌承認是RaBitQ先用了隨機旋轉 , 他們并不是首創 , 然而在論文正文里 , 他們卻對此只字不提 。
這個雞賊的做法 , 不止一位審稿人注意到了 。
比如給出10分滿分(strong accept)的Reviewer WFrV就直接明示了這一點 , 建議谷歌作者在論文終稿里承認RaBitQ的地位 。
RaBitQ and variants are similar to TurboQuant in that they all use random projection 。


(RaBitQ及其變體與TurboQuant相似 , 都使用了隨機投影 。 )


I strongly encourage the authors to add these experiments in the final version of the paper.


(我強烈建議作者在終稿中加入這些實驗 。 )


結果 , 谷歌的終稿出來之后 , 不僅沒有加入討論 , 還把正文中對RaBitQ僅有的(還不完整的)描述 , 挪到了附錄里 , 這個做法簡直要把人氣笑了 。
2026年3月 , 高健揚團隊正式致信TurboQuant全體作者要求糾正 。
TurboQuant第一作者Amir Zandieh回了一句:
隨機旋轉和JL變換已經是領域里的標準技術了 , 我們不可能引用每一個用到它們的方法 。


簡直讓人無語了 。
第二 , 說別人的理論是「次優」 , 但證據呢?
TurboQuant論文中有這樣一句話:
While the paper's theoretical guarantees are suboptimal likely due to loose analysis — as practical performance surpasses theoretical bounds.


翻譯過來:RaBitQ的理論保證是次優的 , 很可能是因為分析太粗糙了 。
然而真實情況是 , RaBitQ擴展版的Theorem 3.2已經嚴格證明 , 其誤差界匹配FOCS 2017給出的漸近最優界 。
也正是因為這個事實 , 他們才被邀請到FOCS去做Workshop報告 。
2025年5月 , 高健揚團隊通過郵件與TurboQuant二作Majid Daliri進行了多輪詳細技術討論 , 逐條解釋了為什么RaBitQ的理論保證是最優的 。
Daliri在郵件中明確表示 , 已將討論內容告知全體共同作者 。
然而 , 實際上他們什么都沒做 。
華人學者辛辛苦苦花了兩年證明的最優性定理 , 被人一句「suboptimal likely due to loose analysis」就否定了 。
第三 , 綁住別人的手 , 再說自己跑得快 。
TurboQuant論文報告RaBitQ的量化速度比TurboQuant慢了「數個數量級」 。
然而這個計算方法 , 沒有任何公平可言 。
Daliri在2025年5月的郵件中承認了 , 他們測試RaBitQ時用的是自己翻譯的Python版本(而非官方開源的高度優化的C++實現) , 并且關閉了多線程 , 在單核CPU上跑 。 而TurboQuant用的則是英偉達的A100 GPU 。
但問題是 , RaBitQ的官方代碼2024年5月就開源了 , 默認是多線程并行 。
而且 , Daliri在2025年1月的郵件中就已經表示自己成功跑通了RaBitQ的C++代碼 。
他知道官方實現有多快 。 但最終論文里用來做對比的 , 仍然是他自己翻譯的、運行在單核CPU上的Python版本 。
用Python單核CPU去跟A100 GPU對比 , 仿佛就是把對手的鞋帶綁在一起 , 再跟他賽跑 , 最后在論文中得出:我們快了好幾個數量級 。

不僅如此 , TurboQuant的論文還被發現漏洞百出!
3月26日 , 研究者Jonas Matthias Kübler在OpenReview上發布公開評論 , 對TurboQuant的實驗方法提出了多個具體質疑:

  • 速度對比的baseline是FP32精度 , 但現實中沒有框架會用32位存KV緩存 , 這讓「8倍加速」的說法很不實在;
  • 速度baseline在論文正文里寫的是PyTorch einsum , 到了博客里又變成了JAX;
  • 更耐人尋味的是 , Llama模型2.5bit配置的LongBench分數 , 從arXiv版本的49.44變成了ICLR版本的49.74 , 差距縮小了50% , 但論文沒有說明做了什么改動 。

總之 , 如果回顧完整的時間線 , 就會發現 , 谷歌的論文作者根本不是粗心 , 不是疏忽 , 每一步都有人提醒 , 每一步都被選擇性忽略了 。
先把蛋糕吃完 , 再討論蛋糕是不是你的 。



數千萬人看到的敘事 , 是錯的


現在 , 一邊是中國博士后 , 兩年研究 , 兩篇頂會 , 代碼全部開源 。 另一邊是Google Research , 一篇博客 , 數千萬曝光 , 存儲股跌停 。
如果沒有人糾正 , RaBitQ就會被記錄為一個「次優的、很慢的」老方法 , TurboQuant就是「從零開始、全面超越」的新突破 。
歷史就是這么被改寫的 。
在Hacker News上 , NeurIPS 2021論文DRIVE的作者也站出來了——同樣使用了隨機旋轉+偏差校正框架 , 同樣曾被Google邀請做內部報告 , 同樣沒有被TurboQuant引用 。
這不是一兩個人的遭遇 。
錯誤的學術敘事一旦廣泛傳播 , 糾正的成本會越來越高 。


在數千萬曝光面前 , 這個聲音很小 。
但是 , 必須有人發聲 。
參考資料:
https://x.com/gaoj0017/status/2037532673812443214
https://www.linkedin.com/feed/update/urn:li:activity:7443322114301956096/?originTrackingId=Vc0dkeibHUvsvZ4FSE0Tdw%3D%3D
https://zhuanlan.zhihu.com/p/2020969476166808284?utm_medium=social&utm_psn=2020975962079118879&utm_source=wechat_timeline&wechatShare=1&s_r=0
https://openreview.net/forum?id=tO3ASKZlok

    推薦閱讀