騰訊開源推理模型!13B參數比肩OpenAI o1,1張GPU就能跑

騰訊開源推理模型!13B參數比肩OpenAI o1,1張GPU就能跑

文章圖片

騰訊開源推理模型!13B參數比肩OpenAI o1,1張GPU就能跑

文章圖片

騰訊開源推理模型!13B參數比肩OpenAI o1,1張GPU就能跑

文章圖片


智東西
作者 | 王涵
【騰訊開源推理模型!13B參數比肩OpenAI o1,1張GPU就能跑】編輯 | 漠影
智東西6月27日報道 , 今日 , 騰訊混元宣布開源首個混合推理MoE模型Hunyuan-A13B , 總參數80B , 激活參數僅13B , 是混元首個開源推理模型 , 騰訊將其稱為“業界首個13B級別的MoE開源混合推理模型” 。
騰訊混元Github頁面(圖源:Github)
Hunyuan-A13B模型是騰訊內部應用和調用量最大的大語言模型之一 , 有超過400+業務用于精調或者直接調用 , 日均請求超1.3億 。 與其之前開源的混元large相比 , Hunyuan-A13B參數更小 , 但是性能和效果都有一定提升 。
在官方發布的基準測試上 , Hunyuan-A13B模型在數學、推理、Agent調用等能力上超越Qwen3-A22B、DeepSeek-R1-0120以及OpenAI-o1-1217 , 甚至在長文本上能和Gemini 2.5 pro“掰手腕” 。
在用戶端進入Hunyuan-A13B模型主頁后 , 可以選擇開啟“快思考”模式 , “快思考”模式提供簡潔、高效的輸出 , 適合追求速度和最小計算開銷的簡單任務 , 如不點擊按鈕 , 則默認為“慢思考”模式 , 可以輸出更深、更全面的推理步驟 , 如反思和回溯等 。
此外 , 在開發者方面 , Hunyuan-A13B模型對個人開發者較為友好 , 在嚴格條件下 , 開發者只需要1張中低端GPU卡即可部署 。 目前 , Hunyuan-A13B已經融入開源主流推理框架生態 , 無損支持多種量化格式 , 在相同輸入輸出規模上 , 整體吞吐是前沿開源模型的2倍以上 。
即日起 , 模型已經在Github和Hugging Face等開源社區上線 , 同時模型API也在騰訊云官網正式上線 , 支持快速接入部署 。
體驗入口:https://hunyuan.tencent.com/
API地址:https://cloud.tencent.com/product/tclm
Github :https://github.com/Tencent-Hunyuan
HuggingFace:https://huggingface.co/tencent

一、激活參數13B , 性能直追OpenAI o1測試結果顯示 , Hunyuan-A13B在數學能力、推理能力以及Agent調用能力上表現較佳 , 在多個基準測試榜單中超越Qwen3-A22B、DeepSeek-R1-0120以及OpenAI-o1-1217 。
Hunyuan-Large基準測試數據(圖源:騰訊混元)
在長文方面 , Hunyuan-A13B支持256K原生上下文窗口 , 在PenguinScrolls和LongBench-v2長文數據集中超越DeepSeek R1和Qwen3-A22B , 僅次于第一名Gemini 2.5 pro 。

二、20T tokens預訓練+MoE架構優化:騰訊混元A13B大模型核心技術突破預訓練環節 , Hunyuan-A13B訓練了20T tokens的語料 , 覆蓋了多個領域 。 此外 , 在模型架構上 , 騰訊混元團隊構建了適用于MoE架構的Scaling Law聯合公式 , 可以進一步提升模型預訓練的效果 。
在后訓練環節 , Hunyuan-A13B采用了多階段的訓練方式 , 同時兼顧了模型創作、理解、Agent等通用能力 。
Hunyuan-A13B后訓練四個步驟(圖源:騰訊混元)
對于時下熱門的大模型Agent能力 , 騰訊混元建設了一套多Agent數據合成框架 , 接入了MCP、沙箱、大語言模型模擬等多種環境 , 通過強化學習讓Agent在多種環境里進行自主探索與學習 , 進一步提升了Hunyuan-A13B的效果 。
此外 , 騰訊混元還開源了兩個新的數據集 。 其中 , ArtifactsBench構建了一個包含1825個任務的新基準 , 涵蓋了從網頁開發、數據可視化到交互式游戲等九大領域 , 并按難度分級以全面評估模型的能力 。
C3-Bench則針對Agent場景模型面臨的三個關鍵挑戰:規劃復雜的工具關系、處理關鍵的隱藏信息以及動態路徑決策 , 設計了1024條測試數據 , 以發現模型能力的不足 。

結語:騰訊混元構建開源AI生態騰訊混元旗下圖像、視頻、3D、文本等多種模態基礎模型已全面開源 。 未來 , 混元還計劃推出多尺寸混合推理模型 , 從0.5B到32B的dense模型 , 以及激活13B的MoE模型 , 以適配企業與端側不同需求 , 混元圖像、視頻、3D等多模態基礎模型及配套插件模型也將持續開源 。
值得注意的是 , 此次騰訊混元在開源Hunyuan-A13B模型的同時 , 還配套開源了ArtifactsBench和C3-Bench兩大專業評測數據集 , 這一舉措展現了科技大廠參與行業標準制定的積極姿態 , 體現了騰訊混元推動大模型技術生態共建的責任 。

    推薦閱讀