AI不用寫思考過程!科學家發現隱空間推理范式,推理速度提升30倍

AI不用寫思考過程!科學家發現隱空間推理范式,推理速度提升30倍

文章圖片

AI不用寫思考過程!科學家發現隱空間推理范式,推理速度提升30倍

文章圖片

AI不用寫思考過程!科學家發現隱空間推理范式,推理速度提升30倍

文章圖片

AI不用寫思考過程!科學家發現隱空間推理范式,推理速度提升30倍

文章圖片


AI 終于會心算了 , 這不是它在偷懶 , 而是科學家發現了一種新的推理范式 。

在過去幾年里 , 大模型的推理幾乎都依賴思維鏈(CoT , Chain-of-Thought):模型需要把推理一步步寫出來 , 再給出最終答案 。 這種方式在很多任務中非常有效 , 但在科學問題中 , 它也許并不是最自然的計算路徑 。

在最近的一項研究中 , 科學家提出了一種新的范式:讓模型在連續隱空間中完成推理 , 再輸出文字回答 。

簡單來理解這項研究:傳統的 AI 做化學題需要輸出所有思考過程 , 這就像必須每個步驟都大聲念出來再向下一步推進 , 不僅費時費力還不一定準確;現在 LatentChem 讓 AI 可以像化學家那樣先“默想” , 在內部完成復雜計算后再直接給答案 。

在化學任務中 , 這種方式尤為重要 。 做過分子優化、分子編輯等任務的研究人員 , 應該都遇到過這樣的場景:模型能寫出一長段看似專業的推理過程 , 談電子效應、位阻、官能團和反應位點 , 但最終生成的 SMILES 或分子結構卻和前文分析不一致 , 甚至連修改位置都錯了 。

這類問題背后 , 其實指向了一個更根本的矛盾:化學推理未必天然適合被“翻譯”成離散的自然語言 token 。

來自 Haven 團隊的葉新武、尹臻菲、廖雨萱、唐相儒聯合斯坦福大學叢樂教授、吳英成博士、吳方博士等研究團隊設計了 LatentChem 系統 , 針對這一問題進行了全新探索 。


圖丨葉新武(來源:受訪者)

它并不否定推理 , 也不是簡單地壓制模型輸出思維鏈 , 而是換了一種實現路徑:將推理的主要載體從顯式文本 CoT 轉移到連續隱空間中 。 也就是說 , 模型會先在隱空間中完成多步計算 , 再生成最終回答 。

這類似于化學家的“默想”過程 , 例如 , 化學家在腦海中思考三維分子結構時 , 并不會把每一步推理都用語言表達出來 , 而是在形成完整判斷后再將結果呈現出來 。

更有意思的是 , 在結果導向的強化學習訓練中 , 模型會主動減少甚至停止輸出顯式 CoT , 只保留極短的過渡符號后直接給出答案 。 但這并不意味著模型不再思考 , 恰恰相反 , 推理并未消失 , 而是被內化到了隱空間中 。

【AI不用寫思考過程!科學家發現隱空間推理范式,推理速度提升30倍】“我們只是訓練讓它正確地回答 , 并不是在訓練目標中讓它做這件事 , 結果模型會自發地選擇在隱空間中進行主要思考 。 需要大量推理的任務對 token 需求量非常高 , 而將 token 放到隱空間中的設計 , 會大大提高效率 。 ”葉新武對 DeepTech 表示 。

結果顯示 , 在分子優化任務中 , LatentChem 的成功率比“寫出”CoT 的 AI 高 59.88% 。 此外 , 由于省去了輸出時間 , 其平均推理速度提升了 10.84 倍 , 甚至在分子優化和反應預測任務中快了近 30 倍 。

這意味著 , 假如從前藥物研發、材料設計等需要一年的工作 , 現在能夠 1 個多月就能完成虛擬篩選 。

近日 , 相關論文以《LatentChem:從文本思維鏈到隱空間思考的化學推理》(LatentChem: From Textual CoT to Latent Thinking in Chemical Reasoning)為題發表在預印本網站arXiv[1
。


圖丨相關論文(來源:arXiv)

當化學家“默想”時 , AI還在“念推理鏈”

實際上 , 化學推理與自然語言存在本質區別:化學推理本質上更像是在連續、結構化的分子空間與性質空間中進行移動、聚焦和更新;而自然語言 token 是離散的、符號化的 。

研究團隊提出了一個尖銳的問題:用語言進行化學變化的模擬 , 會不會從一開始就選錯了工具?他們注意到 , 盡管在以往的研究中已有在大模型通過隱空間思考(Latent thinking)的相關探索 , 但是效果甚微 。 他們推測 , 原因可能是用在了一些錯誤的任務上 。

葉新武解釋道:“例如 , 在分子結構空間中尋找更優候選 , 修改某個官能團 , 調整分子性質以及優化結合親和力 , 這些操作本質上更接近連續空間中的結構變換 。 ”

當用戶要求模型將這些連續推理過程逐步寫成文字時 , 就會出現這項研究中所提到的“連續性-離散化差距(Continuity-Discretization Gap)”:如果一個本來更適合在連續表征中完成的推理過程 , 被強行離散化成語言 , 不僅效率低 , 還可能經常出現“說得通、做不對”的現象 。

也就是說 , 模型往往“心口不一” , 盡管輸出的推理過程看似合理 , 但最終生成的分子結構卻與推理不一致 。 “從這個角度看 , 文本 CoT 更像是推理的描述 , 而不一定是推理真正發生的地方 。 ”葉新武告訴 DeepTech 。


圖丨化學推理中連續性-離散化間隙的概念性圖示(來源:arXiv)

給AI裝上一個會“轉彎”的化學大腦

LatentChem 的核心思路是 , 允許模型在輸出文本形式的回復之前 , 先在隱空間中進行隱式的思考 。

整個框架主要包含四個關鍵模塊:ChemAdapter、Latent thinking、ChemUpdater以及 Latent Projector 。

·ChemAdapter:把分子信息變成可供語言模型使用的軟提示 。

模型先通過分子編碼器提取結構表示 , 再壓縮成固定數量的 ChemTokens 。 這些 ChemTokens 會作為軟提示拼接到文本指令前 , 為后續推理提供分子上下文 。

·Latent thinking:用連續 latent states 承載多步推理 。

不同于逐 token 生成文本 CoT , LatentChem 會在隱空間中生成一系列 latent thought 向量 , 這些向量構成了模型真正執行中間推理的主要軌跡 。

·ChemUpdater:推理過程中反復“再看一眼分子” 。

該研究的一個關鍵設計在于 , 每一步 latent thought 都可以通過 ChemUpdater 的 cross-attention 機制 , 遞歸地更新 ChemTokens 。 這意味著模型在多步推理過程中 , 不是一次性讀入分子后就“閉門思考” , 而是可以不斷回看分子表示 , 并動態聚焦到不同的子結構或關鍵信息上 。

葉新武表示:“我們把 Latent thinking 用于化學推理任務是比較關鍵的設計 。 基于這種機制可以動態更新大模型的 Chemtoken , 可以將它理解為一種化學的記憶 。 ”

·Latent Projector:把隱狀態繼續映射回可迭代的輸入空間 。

更新后的 hidden state 會經由 Latent Projector 映射回輸入嵌入空間 , 作為下一步 latent 推理的基礎 , 從而形成多步迭代的閉環 。


圖丨LatentChem架構概述 , 該系統通過專用的隱式思考階段將推理與生成過程解耦(來源:arXiv)

該研究中最值得關注的觀察之一 , 是強化學習階段模型行為的變化 。 在研究人員采用的 GRPO 訓練中 , 獎勵并不看思維鏈寫得是否完整 , 也不要求解釋過程是否漂亮 , 而是只看三件事:輸出格式是否正確、答案是否有效以及最終結果是否正確 。

在這種純結果導向的獎勵信號下 , 模型逐漸形成了一種穩定模式:先進行 latent thinking , 再輸出一個極短的過渡符號(例如 “.” 或 “:”) , 然后直接給出最終答案 。

這說明 , 一旦不再被顯式鼓勵去“寫推理” , 模型會自然傾向于把主要計算留在內部完成 , 只輸出任務真正需要的最終結果 。

但需要了解的是 , 這并不意味著模型是在“跳步”或“偷懶” , 研究團隊進行了進一步因果驗證 。 他們將前 k 個 latent steps 用高斯噪聲替換 , 結果模型性能隨噪聲注入步數增加而單調下降 。 這表明 , latent states 確實承載了關鍵推理信息 , 而不是可有可無的中間變量 。


(來源:arXiv)

研究中另一個值得關注的發現是 , 當隱空間預算不夠 , 模型會重新把推理“寫出來” 。

如果 LatentChem 的本質只是“禁止輸出 CoT” , 那模型無論在什么條件下都不該再寫長推理 。 但研究人員觀察到的現象恰恰更微妙:當 latent thinking 的步數預算被壓縮得很低時 , 模型會重新啟用顯式 CoT 。 例如 , 當 latent step 數量少于約 6 步時 , 模型更明顯地開始輸出文字化推理 , 以彌補內部計算容量不足 。

這說明 , LatentChem 學到的并不是一個固定的鐵律 , 而是一種類似“液壓補償”的動態分配機制(Hydraulic Trade-off):當 latent 預算充足時 , 主要推理留在隱空間完成 , 輸出更短、更快;而當 latent 預算不足時 , 模型則會把部分推理過程“外顯”為文本 , 以幫助完成任務 。

因此 , LatentChem 的關鍵意義不是讓模型不寫 CoT , 而在于證明:顯式 CoT 只是推理的一種外化形式 , 而不是推理本身唯一的實現方式 。


圖丨預算壓力測試(來源:arXiv)

推理更快也更準:速度最高提升近30倍

在多個化學任務 benchmark 上 , LatentChem 同時展現出更好的性能和更高的推理效率 。

以 ChemCoTBench 為例 , 相比強 CoT 基線 , LatentChem 取得了 59.88% 的非平局勝率優勢 , 同時平均推理速度達到 10.84 倍加速 。 值得關注的是 , 在具有挑戰性的阿爾茨海默病關鍵靶點(GSK3-β)的虛擬藥物篩選任務中 , LatentChem 的成功率達到 82% , 相較于顯式 CoT 的 67% , 提升效果顯著 。

在更廣泛的基準測試中 , LatentChem 也表現出穩定優勢 , 具體表現為:ChemCoTBench表達為59.88% , ChEBI-20則實現了85.26% , ChemLLMBench 達到 55.58% , 而 Mol-Instructions 的基本持平達到 49.88% 。


表丨化學基準測試的主要結果(來源:arXiv)

推理效率方面 ,LatentChem 將大量文本 token 推理 , 壓縮為更緊湊的 latent steps , 整體實現了 5.4 到 29.9 倍推理加速 , 打破了以往“思考越深、速度越慢”的認知 。 對于需要探索巨大化學空間的任務來說 , 這種效率提升意味著: AI 可以在更短時間內搜索更多候選分子 。


(來源:arXiv)

AI科學家的“直覺”時代或正在到來

LatentChem 的意義不僅僅是一個新的化學模型 , 它更像是 AI 科學家系統的一塊關鍵組件 , 為打破 CoT 推理范式、推動其向新方向發展提供了可行路徑 。

由于目前的系統未加任何限制 , 模型可能并非表現最優 。 未來 , 通過設計專用的方法 , 有望讓它效率更高 , 以及在隱空間中思考和顯式 CoT 之間的切換更準確 。

目前 , 研究團隊正在構建能夠自動執行科學工作流的 AI 系統 , 包括:分子設計、文獻分析、實驗規劃、假設生成以及結果驗證 。 在這些復雜任務中 , 推理往往發生在結構化的連續空間 , 而不是自然語言中 。

據介紹 , LatentChem 最直接的應用是在制藥領域 , 未來有望進一步拓展至材料設計、蛋白質折疊、氣候模擬等領域 。 此外 , 他們還將進一步探索該技術范式的優化空間 。

當然 , 這種“黑箱”式的推理也具有一定局限性 。 例如 , 當模型具體的思考推理過程不可見 , 對于需要嚴謹論證以及需要可解釋性的科研場景來說 , 仍需要進一步權衡 。

但 LatentChem 提出了一個值得思考的問題:顯式 CoT 是否只是推理的一種外化形式 , 而不是推理本身?

該系統所展示的并不是“去掉推理” , 而是把推理從文本表面 , 收回到模型內部 。 未來的 AI 科學家 , 或許不會把每一步思考寫出來 , 但它們仍然在持續推理、探索和發現 , 只是這些推理發生在隱空間中 。

LatentChem 為未來的 AI 設計展示了一種“雙系統”新方向:一個高效的直覺系統 , 讓 AI 在隱空間中完成科學推理 , 一個可解釋的語言輸出系統用于與人類溝通 , 有可能重塑科學發現的 AI 底層邏輯 。

參考資料:
1.相關論文:https://arxiv.org/pdf/2602.07075
2.代碼鏈接:https://github.com/xinwuye/LatentChem

    推薦閱讀