阿里開源智能體編程模型Qwen3-Coder-Next ,推理成本大降

阿里開源智能體編程模型Qwen3-Coder-Next ,推理成本大降

文章圖片


2月3日晚 , 阿里開源新一代智能體編程模型Qwen3-Coder-Next , 僅激活3B , 其智能體編程性能就可媲美DeepSeek-V3.2、GLM-4.7等頂級開源模型 。 千問新編程模型實現了智能體訓練上的創新性擴展(Scaling) , 可像個專業又精準的程序員一樣邊思考邊編程 , 打開了小型模型處理長上下文和復雜智能體任務的全新空間 。 基于技術新突破 , “小快靈”的Qwen3-Coder-Next推理成本顯著降低 , 僅為同等性能模型成本開銷的5%~10% , 特別適用于家用電腦、輕量服務器等低成本智能體部署場景 , 也是目前Agent編程能力最強的小型開源編程模型 。

AI編程是大模型最重要的基礎能力 , 如何提升模型使用工具的Agent能力 , 成為進一步突破編程能力天花板的關鍵 。 基于Qwen3-Next新架構 , Qwen3-Coder-Next專門面向編程智能體打造 , 總參數80B僅激活3B , 是小型混合線性MoE模型 , 擁有出色的編程和智能體能力:在權威的SWE-Bench Verified基準測試中 , 新模型使用SWE-Agent框架 , 問題解決率成功突破70% , 在多語言設置及更具挑戰性的SWE-Bench-Pro測試中表現亮眼;在TerminalBench 2.0、Aider等智能體評測中 , 千問新模型僅激活3B , 就能匹敵甚至超過DeepSeek-V3.2、GLM-4.7、MiniMax-M2.1等更大規模的開源模型 。
智能體訓練擴展 , 是千問新模型實現編程與Agent能力提升的關鍵 。 與主流AI編程模型習慣根據“標準問題”提供“標準答案”不同 , Qwen3-Coder-Next采取了一條全新的訓練擴展路線:通過使用大規模的可驗證編程任務與可執行環境進行訓練 , 讓模型在真實環境反饋中“邊干邊學” , 從而讓模型學習到程序員處理現實編程問題的“精髓” 。 基于此 , 在面臨現實世界中令Agent頭疼的長上下文推理、工具使用、從執行失敗中恢復等難題 , 千問新模型都能從容應對 。

根據模型規模與 SWE-Bench-Pro 表現之間的帕累托前沿(Pareto frontier)關系對比圖 , Qwen3-Coder-Next激活3B參數的性能表現 , 可與激活參數量高10倍到20倍的模型相當 , 這相當于同樣的性能卻節省了90%到95%的推理開銷;在面向低成本智能體部署方面 , Qwen3-Coder-Next 也處于強勢的帕累托前沿地位 , 更適合本地端側部署 , 讓小型混合線性模型也能支撐實用且有競爭力的編程智能體 。
Qwen3-Coder-Next共開源基座(Base)模型和指令微調(Instruct)模型兩大版本 , 已在魔搭社區、Hugging Face等平臺開源上線 , 全球開發者和中小企業都可以免費下載商用 。 Qwen3-Coder-Next可輕松集成到多種下游應用中 , 比如OpenClaw、Qwen Code、Claude Code、Web 開發、瀏覽器使用、Cline 等 , 實現輕巧高效的智能體編程 。
— 完 —
量子位 QbitAI
【阿里開源智能體編程模型Qwen3-Coder-Next ,推理成本大降】關注我們 , 第一時間獲知前沿科技動態

    推薦閱讀