圖靈獎得主楊立昆加盟,全球首家能量模型商業化公司誕生

圖靈獎得主楊立昆加盟,全球首家能量模型商業化公司誕生

文章圖片

圖靈獎得主楊立昆加盟,全球首家能量模型商業化公司誕生

去年底剛從 Meta 離職的圖靈獎得主楊立昆(Yann Lecun) , 在他宣布創辦自己的世界模型公司 AMI Labs 后還不到兩個月 , 就以另一重身份出現在公眾視野里 。 本周三 , 硅谷初創公司 Logical Intelligence 宣布楊立昆出任其技術研究委員會主席 。 與此同時 , 這家成立僅六個月的公司發布了名為 Kona 1.0 的旗艦產品 , 據稱是首個正式進入商業化的能量推理模型(Energy-Based Reasoning Model , EBRM) 。


圖丨相關推文(來源:X)
【圖靈獎得主楊立昆加盟,全球首家能量模型商業化公司誕生】
關于大語言模型能否實現 AGI , 業界的質疑從未停止 。 如果答案是否定的 , 替代方案在哪里?Logical Intelligence 給出的答案是:能量模型(EBM) 。 在該公司創始人 Eve Bodnia 看來 , LLM 本質上是一場猜詞游戲 。 你給它一個提示 , 它就預測下一個詞出現的概率 , 循環往復 , 直到生成一段貌似通順的回答 。 問題在于 , “貌似通順”和邏“輯正確”之間隔著一道深淵 。

Bodnia 在接受《金融時報》采訪時打了個比方:你教會一只貓像狗一樣叫 , 它也不會因此變成一只狗 。 LLM 能寫出像模像樣的數學證明或代碼 , 但它并不真正理解這些符號背后的推理鏈條 。 一旦任務復雜度提升 , 或者約束條件增多 , 它就開始犯錯 , 而且往往錯得毫無章法 。

楊立昆也反復表達過類似的觀點 。 事實上 , 他在過去幾年反復強調 , 僅靠擴展 LLM 的規模不可能實現真正的人類水平智能 。 他在此前的播客中直言 , 那些認為只需要不斷做大模型就能通向超級智能的想法是“扯淡”(原話是 bullshit) 。

楊立昆的核心論點是:LLM 缺乏對物理世界的真實理解 , 它們只是在文本空間里做模式匹配 , 無法像人類或動物那樣通過與環境互動來學習因果關系 。 他甚至說過 , 一只家貓擁有的常識都比 GPT-4 多 。

于是 , 當楊立昆的名字出現在 Logical Intelligence 的公告里時 , 毫無疑問這也是他用行動為 EBM 模型站臺 。 楊立昆本人也在聲明中說 , 他一直認為真正的推理應該被表述為優化問題 , 這正是能量模型的基礎 , 即通過最小化一個能量函數來完成推理和推斷 。 他評價 Logical Intelligence 是“第一家將基于 EBM 的推理從研究概念推向產品的公司” 。

那么 , EBM 的具體工作原理是什么?為什么它被認為可能彌補 LLM 的短板?

簡單來說 , EBM 會為每個候選狀態分配一個“能量”分數 。 能量越低 , 意味著這個狀態越符合約束條件和目標;能量越高 , 說明有什么地方出了問題 。 而這種評分機制可以施加在部分完成的推理鏈條上 , 而不必等到最終答案出來才知道對錯 。 這就像下棋時能評估每一步棋的優劣 , 而不是非要等到終局才知道輸贏 。

Logical Intelligence 聲稱 , 他們的模型 Kona 在三個層面解決了 LLM 推理的固有缺陷 。 第一 , Kona 是非自回歸的 。 LLM 逐詞生成文本 , 要想修正前面的錯誤 , 往往需要重新生成一大段前綴 , 效率很低 。 Kona 則可以同時生成完整的推理軌跡 , 并根據約束直接進行優化 。

第二 , Kona 使用全局評分而非局部評分 。 LLM 的預訓練目標是預測下一個詞 , 與長鏈條推理的整體正確性無關 。 Kona 學到的能量函數可以端到端地評估推理軌跡的質量 。

第三 , Kona 在連續潛在空間中推理 。 LLM 的輸出是離散的 token 序列 , 很難通過梯度信息做細粒度的局部修正 。 Kona 輸出的是稠密向量 , 可以利用近似梯度進行可控的編輯 , 逐步提升推理的一致性 。

Logical Intelligence 同時發布了名為 Aleph 的智能體編排層 , 專門用于協調 Kona、LLM 和其他工具的調用 。 該公司將 Aleph 與 OpenAI 的 GPT-5.2 配對 , 在 PutnamBench 上取得了 99.4% 的正確率 。

PutnamBench 是一個以 Putnam 數學競賽題目為基礎的形式化推理基準 , 包含來自該競賽過去 50 多年的 672 道難題 , 每道題都需要用 Lean 等證明語言寫出形式化證明 , 并由外部編譯器驗證正確性 。

根據公開的排行榜信息 , 這一成績把 Logical Intelligence 推到了該基準的榜首位置 。 據公司披露 , 在此次評測中 , Aleph 還自動發現了 15 道題目的形式化描述存在錯誤 , 并提出了修正建議 , 這些修正均得到 PutnamBench 團隊的核實確認 。


圖丨Putnam Bench 測試結果(來源:PutnamBench)

不過要強調的是 , Aleph 本身是基于 LLM 的(它用的是 GPT-5.2) , 其亮點在于編排和協調能力 , 而不是完全拋開 LLM 另起爐灶 。 按照 Bodnia 的說法 , Aleph 是一個“內部工具” , 用于測試公司正在構建的數學環境的嚴謹性;真正代表公司技術核心的是 Kona 這個 EBRM 。 她在去年 12 月的一次采訪中直言:Aleph 的表現證明了我們的基礎是堅實的 , 但它只是我們核心模型能力的一個零頭 。

Kona 1.0 于 2026 年 1 月 21 日正式公開演示 , 第一個展示的能力是解數獨 。 在公司網站的實時對比中 , Kona 與 OpenAI、Google、Anthropic 等公司的領先 LLM 正面對決 , Kona 在速度和能耗上都展現出明顯優勢 。 公司表示后續還會加入國際象棋和圍棋的演示 , 目標是讓公眾直觀理解“基于能量的推理”與“基于概率的猜測”之間的區別 。

在一篇題為《認知的藝術》的博客文章中 , Bodnia 寫道 , LLM 讓很多人感到興奮 , 因為它們很擅長回答個人問題 , 互動起來很自然 , 很容易讓人幻想它們能處理更難的問題 。

但仔細想想 , 我們每天面對的任務大多數并不是純粹的語言問題 , 有的需要空間推理 , 有的依賴邏輯、規劃或情緒感知 , 還有很多根本無法用語言完全表達 。 智能不是靜態的 , 而是適應性的 。 LLM 在某些事情上做得很好 , 但它們只是一種智能 , 許多問題需要另一種路徑 。

而這種觀點也與 Eve Bodnia 的獨特背景不無關系 , 她出生于哈薩克斯坦 , 18 歲移民美國 , 先在社區大學就讀 , 后轉入加州大學伯克利分校 , 又在加州大學圣芭芭拉分校攻讀博士 。 她的研究方向包括暗物質探測、量子力學和粒子物理 , 發表過 22 篇相關論文 , 還與 Google Quantum AI 有過合作 。

她個人網站上的自我介紹顯示 , 她對代數拓撲和李群在學習系統形式化中的應用很感興趣 。 這種數學物理背景使她對可驗證性有一種近乎執念式的追求 。

除了 Bodnia 和楊立昆 , Logical Intelligence 還拉來菲爾茲獎得主 Michael Freedman 出任首席數學官 , 前 Facebook 工程師、國際大學生程序設計競賽(ICPC)世界冠軍 Vlad Isenbaev 擔任首席 AI 官 , 曾任幣安首席戰略官和通用電氣高管的 Patrick Hillmann 則負責戰略規劃 。


圖丨Logical Intelligence 創始團隊(來源:Logical Intelligence)

根據《金融時報》等媒體報道 , Logical Intelligence 正在籌備新一輪融資 , 目標估值在 10 億至 20 億美元之間 。 公司計劃在本季度晚些時候與能源、先進制造和半導體行業的部分合作伙伴啟動 Kona 1.0 的試點項目 。

當然 , 這個領域并非只有 Logical Intelligence 一家在探索 。 Robinhood 聯合創始人 Vlad Tenev 投資的 Harmonic 同樣專注于形式化推理 , 其旗艦模型 Aristotle 在 2025 年國際數學奧林匹克競賽中達到金牌水平 。

不過 , Harmonic 走的是數學超級智能(Mathematical Superintelligence)路線 , 仍在 LLM 框架內通過形式化驗證來消除幻覺;而 Logical Intelligence 則明確標榜自己是“語言無關的”(language-free) , 直接繞過 token , 在結構化狀態空間中推理 。 兩者的技術路徑存在本質差異 。

楊立昆本人的布局更是多線并行 。 他創辦的 AMI Labs 專注于世界模型 , 據報道正以約 35 億美元的估值融資 5 億歐元 , 總部將設在巴黎 。 世界模型的目標是讓 AI 理解物理世界的因果關系 , 通過視頻和空間數據學習 , 而不只是消化文本 。

據報道 , 楊立昆和 Bodnia 都認為真正的人類水平 AI 需要組合多種模型 。 從楊立昆同時參與世界模型公司 AMI Labs 和能量型推理公司 Logical Intelligence 來看 , 他顯然也是在多個技術方向同時下注 。

也有人持懷疑態度 。 一位匿名 AI 投資人在接受 Upstarts 采訪時表示 , 他懷疑大多數 AI 生成的代碼最終是否真的需要形式化驗證 。 畢竟 , 形式化方法在狹義的、高度規范化的領域效果最好 , 能否推廣到更廣泛的應用場景仍是未知數 。

更何況 , OpenAI、Google 等大型實驗室也在大力改進自家推理模型的可靠性 。 Harmonic 的 CEO Tudor Achim 承認 , 形式化證明系統在精確度上無可挑剔 , 但要轉化為可持續的商業收入 , 還需要證明自己在學術競賽之外的實際價值 。

參考資料:
1.https://www.ft.com/content/157bb0e3-9d6c-47ac-afc5-6944981e10ef
2.https://www.upstartsmedia.com/p/math-ai-startups-push-new-models
3.https://finance.yahoo.com/news/logical-intelligence-achieves-76-percent-141500227.html
4.https://logicalintelligence.com/blog/energy-based-models-for-reasoning

運營/排版:何晨龍

    推薦閱讀