再見,GPT-5!2026,《連線》押注千問贏

再見,GPT-5!2026,《連線》押注千問贏

文章圖片

再見,GPT-5!2026,《連線》押注千問贏


作者 林易
編輯 重點君
2025年尾聲 , 全球科技風向標再次轉動 。
年初 , 硅谷和華爾街都在屏息以待OpenAI GPT-5降臨 , 篤定它會像前幾代模型一樣驚艷 。 然而 , 行至年末 , 這種期待很大程度上落空了 。
12月29日 , 美國著名科技媒體《連線》發布了一篇具有象征意義的年終頭條——《再見 , GPT-5 。 你好 , 千問》 。
文章沒有否認GPT的地位 , 但敏銳地捕捉到了潮水的轉向:GPT-5未能如預期激起市場熱情 , 而來自中國的開源模型阿里千問(Qwen) , 性能優異 , 適于靈活部署應用 , 2026年將屬于千問 。
《連線》雜志觀察指出 , 盡管美國OpenAI的GPT-5、谷歌的Gemini 3以及Anthropic的Claude通常得分更高 , 但千問、DeepSeek等中國模型性能也穩居第一梯隊 , 并且變得越來越受歡迎 , 原因在于它們既性能優異 , 又易于開發者靈活調整和使用 。
《連線》資深編輯Will Knight在文中提出了一個新的評估維度:“衡量任何AI模型價值的關鍵標準 , 不應僅限于其聰明程度 , 更應看它被用于構建其他應用的廣度 。 ”
如果以此為尺 , 過去一年無疑是全球大模型版圖重構的一年 。 全球AI格局正在從一超多強的單極世界 , 演變為中美雙核的多極世界 。 中國大模型正在從追隨者變成并跑者 。

開源:一場權力的交接時間回到兩年前 , Meta Llama系列曾是全球開源模型的絕對王者 。 彼時的中國AI圈 , 敘事主線往往是“做中國版Llama” , 許多創業公司甚至拿著套殼Llama的模型去融資 。
進入2025年 , Meta基礎模型性能明顯掉隊 , Llama 4 沒達到LM Arena 基準測試的第一梯隊水平 , 創始人扎克伯克開始從OpenAI等競對那里天價挖人、頻上頭條;同時 , OpenAI的gpt-oss等開源模型性能較弱 , 沒能吸引太多開發者使用 。
到了2025年下半年 , 開源的權杖發生了轉移 。 根據全球最大的AI開源社區HuggingFace的數據 , 2025年7月是一個分水嶺:中國開源模型的下載量首次超過了美國 , 其中千問位居第一 。
截至2025年10月 , 千問全球下載量已突破7億次 , 超越Llama成為全球第一大開源模型 。 更具標志性的是 , 在OpenRouter這個更能反映開發者偏好的第三方API聚合平臺上 , 千問的調用量一度沖至全球第四 , 僅次于幾個頭部閉源巨頭 , 且經常在編程等細分領域霸榜 。

【再見,GPT-5!2026,《連線》押注千問贏】《連線》在調查中發現:甚至連曾經的開源先驅Meta , 據傳也在內部使用千問來協助開發其新一代模型 。 這在兩年前簡直無法想象 。
而在美國倡導開源模型發展的非營利組織Laude Institute , 其聯合創始人Andy Konwinski更是直言:“許多科研人員都在使用Qwen , 因為它是目前最好的開源大模型 。 ”
究其原因 , 是阿里從一開始就選擇了一條比Meta等更徹底的開源路線 。
一方面 , 相較于幾乎不開源的OpenAI , 阿里在模型構建與持續更新方面投入了更多精力 , 且千問技術細節更公開透明 , 阿里經常發表論文 , 詳述新的工程和訓練技巧 , 與美國大型科技公司的封閉形成鮮明對比 。
另一方面 , 不同于一些公司“開源小模型、閉源大模型”的試探性策略 , 阿里的打法更類似安卓系統:一口氣開源了近400款模型 。 不僅涵蓋了0.5B到110B的全尺寸參數 , 覆蓋了文本、圖片、語音、視覺等全模態 , 還支持119種語言 。
這種策略逐漸構建了生態護城河 。 當一個開發者想要開發一款智能硬件時 , 需要一個小參數模型;當進行復雜推理時 , 需要一個大參數模型 。 過去 , 開發者可能需要拼湊不同廠商的模型 , 而現在 , 千問就能提供了一整套標準化的解決方案 。
HuggingFace在2025年9月底公布的開源模型榜單中 , 前十名有7款來自通義 。 斯坦福HAI研究所發布的報告也顯示 , 2024年重要大模型中 , 阿里入選6個 , AI貢獻度位列全球第三 。
顯然 , 中國科技公司不再只是全球AI的應用層玩家 , 它們開始掌握模型層的技術標準和話語權 。

落地:模型的隱形戰場模型只有落地到千行百業的具體應用和業務場景中 , 才能產生實際價值 。
相比開源社區可見的下載量 , AI落地產業往往不為人知 。 對于大多數企業而言 , 模型只是技術底座 , 他們不需要對外傳播自己使用了什么模型 , 只需要產品好用 。
《連線》在文章中描述了這樣一個場景:在杭州的智能眼鏡初創公司Rokid , 記者和工程師正在用智能眼鏡實時翻譯對話 , 并將文字投射在眼前 。 背后驅動這一切的 , 正是千問的開源模型 。
而這只是冰山一角 。
基于千問 , AI社區已經形成了圍繞它的龐大生態 。 千問模型發布后 , vLLM、SGLang、蘋果MLX等最主流的AI框架會第一時間上線支持;英偉達、聯發科等硬件廠商會實現Day 0的適配;Ollama、Kaggle、LMSYS org、openRouter、HuggingFace等開發者最常用的應用、工具、平臺、社區也會同步上線新的開源模型 。
這意味著 , 任何一家企業想要使用千問 , 由于工具鏈的完備 , 其邊際成本被降到了最低 , 大大加速AI落地和創新速度 。
從北京到硅谷 , 從華強北到義烏小商品市場 , 千問橫掃大公司、中小企業和創業公司市場 , 成為實際上落地最多的大模型 。
在美國 , 硅谷明星公司Airbnb、Perplexity和英偉達均已將千問納入技術棧 。 在中國 , 比亞迪等新能源車企將千問集成到新款車載儀表盤助手中;OPPO、vivo等手機廠商則在端側大量部署千問的小參數模型 。
國際權威調研機構沙利文(FrostSullivan)的報告顯示 , 在2025年上半年的中國企業級大模型調用市場中 , 千問占比位列第一 , 服務了超過100萬家客戶 。
這種廣度正是《連線》所強調的新標準:當一個模型被用于構建成千上萬個互不相同的應用時 , 它就具有了比單純刷榜更高的生命力 。
正如Laude Institute創始人Andy Konwinski對《連線》所說 , “狹窄的基準測試衡量的往往是數學或編程等技能 , 卻以犧牲確保模型產生重大影響為代價 。 當基準測試不能代表真實使用或世界上待解決的問題時 , 最終會陷入方向錯誤的模式 。 ”

編程:被低估的垂類賽道值得關注的是 , 在所有產業落地場景中 , AI Coding(人工智能編程)正在成為最具賺錢效應的AI賽道 。
以Anthropic為例 , 2025年 , 憑借旗下Claude模型在編程領域的表現 , 營收實現了爆發式增長 。 其年化營收運行率預計在年底接近70億-90億美元 , 僅僅一年翻了近7-9倍 。 在完成F輪融資后 , 其估值已飆升至1830億美元 , 二級市場甚至給出了2200億美元的隱含估值 。
Anthropic的成功在于 , 其API收入中很大一部分來自Cursor和GitHub Copilot等編程工具的調用 。 單這一項 , 就貢獻了數十億的營收 。
毫無疑問 , AI Coding正在徹底改變程序員和企業的工作流 , 程序員不再埋頭寫程序 , 而是聚焦更高維度的架構和創新 , 通過大模型快速生成代碼 , 然后修改迭代 , 這種新工作范式極大提升了驗證想法的速度 。
OpenAI聯合創始人、提出Vibe Coding(氛圍編程)概念的Andrej Karpathy甚至感嘆:“作為一名程序員 , 我從未感到如此落后……”
在中國 , 阿里擁有從AI Coding模型到平臺的最全面布局 , 且正在快速贏得市場 。
在模型層 , 7月23日阿里開源了千問AI編程大模型Qwen3-Coder 。 這款模型以480B參數激活35B參數的MoE架構 , 原生支持256K上下文 , 編程能力登頂全球開源陣營 , 不僅超越了GPT-4.1 , 更比肩全球最強的編程模型Claude 4 。 OpenRouter數據顯示 , Qwen3-Coder上線后調用量一周暴增1474% , 位列編程領域全球第二 。
在應用層 , 通義靈碼已經成為國內滲透率最高的輔助編程工具 。
比如 , 在金融領域 , 中國建設銀行、工商銀行、平安集團等巨頭已全面鋪開;平安集團超1.5萬名研發工程師使用AI編碼 , 部分新項目代碼AI生成占比超70%;在汽車領域 , 吉利、蔚來、小鵬汽車的研發團隊中 , 代碼AI生成占比普遍達到30%以上;在SaaS領域 , 用友網絡超50%的研發人員使用通義靈碼 , AI代碼生成占比達到37% 。
截至2025年9月 , 通義靈碼累計為開發者生成超60億行代碼 。 助力300萬開發者減少重復性編碼、測試及缺陷修復工作 , 聚焦架構設計與技術創新 。
為了進一步搶占高地 , 阿里還發布了Agentic編程平臺Qoder , 集成全球頂尖模型 , 一次可檢索10萬個代碼文件 , 將數天的網頁開發工作縮短至十分鐘 。
通過深度集成全球頂尖編碼模型的Qoder和深度集成Owen-coder 系列模型的通義靈碼 , 阿里云形成了“全球創新→本土深耕→生態落地\"的全面布局 。 而這方面的價值 , 目前還被市場遠遠低估了 。
對于企業而言 , AI Coding能力是通往通用人工智能的必經之路 。 阿里巴巴集團董事兼首席執行官 , 阿里云董事長兼首席執行官吳泳銘 , 曾在云棲大會上曾系統闡述過通往ASI(超級人工智能)的三個階段 , 其中第二階段“自主行動”的核心 , 就是大模型具備Coding能力 。 因為只有掌握了代碼 , AI才能像工程師一樣拆解任務、操作工具 , 最終進化為能夠自我迭代的Agent 。

全棧:頂級AI巨頭的入場券當模型能力日益趨同 , 競爭焦點開始轉向更綜合的全棧能力 。
過去三年 , 全球科技圈的主流敘事中有且僅有兩個主角:英偉達負責賣鏟子 , 提供GPU硬件基?。 籓penAI負責挖金礦 , 憑借Scaling Law定義前沿模型 。
但2025年 , 這種分工正在被谷歌的強勢回歸打破 。 過去一年 , 憑借Gemini 2.5/3.0系列模型和TPU v6/v7芯片的算力支撐 , 谷歌不僅在模型能力上抹平了與OpenAI的代差 , 更利用“芯片+云+模型”的垂直整合全棧技術閉環 , 大幅拉低了推理成本 。 有分析指出 , 谷歌提供同等推理服務時的底層成本 , 可能僅為對手的兩成 。
隨著AI應用爆發 , 推理算力需求指數級增長 , 對于企業來說 , 成本就是生命 。
因此 , 不難理解谷歌云亮眼的財報表現:2025年第三季度 , 新增客戶數量同比增長近34% , 超過70%的客戶正在使用它的AI產品;前三季度 , 總營收達410億美元 , 同比增長31.2% , 顯著高于亞馬遜AWS和微軟Azure , 在北美三大云廠商中增長最快 。 這種增長很大程度上得益于其全棧AI能力的釋放 。
在全球科技巨頭中 , 阿里的發展路徑與谷歌最為相似 , 從模型到B端市場再到C端應用 , “西谷東阿”正日益成為硅谷和華爾街的共識 。 過去一年 , 兩家科技巨頭的股價也都大幅上漲超過60% 。
和谷歌類似 , 阿里通過阿里云打造了面向全球的AI基礎設施 , 從底層芯片、超節點服務器、高性能網絡、分布式存儲 , 到人工智能平臺、模型訓練推理服務 , 形成了全棧AI云技術能力 。

全棧布局帶來的優勢顯而易見 。 未來 , 企業需要的不僅僅是一個API接口 , 而是結合了私有數據、算力調度和安全合規的一整套解決方案 。 有的企業需要API調用 , 有的需要自己訓模型 , 有的需要RAG(檢索增強生成) 。 這些復雜的需求 , 只有覆蓋IaaS、PaaS、MaaS的全棧廠商才能完美承接 。
這種“云+模型”的一體化戰略 , 正在成為阿里在B端市場的殺手锏 。
作為全棧人工智能服務商 , 阿里正在推進三年3800億人民幣的AI基礎設施建設計劃 , 并持續追加投入 。 阿里云也正在為中國乃至全球提供智能算力網絡 。

結語《連線》的標題——“再見 , GPT-5 。 你好 , 千問” , 并不意味著行業終局 。 OpenAI和谷歌依然擁有最頂尖的模型 , 英偉達的算力霸權短期依然難以撼動 。 但2025年 , AI不再是單極世界 。
當全球的開發者開始習慣調用千問的開源模型 , 當硅谷的創業公司開始將業務跑在來自杭州的模型上 , 中國AI在全球科技版圖中就擁有了不可替代的生態位 。
2026年 , 或許正如《連線》所言 , 將是“千問之年” 。 但這不僅屬于千問和阿里 , 更屬于所有相信開放、擁抱開源的人 。

    推薦閱讀