AMD、高通旗下硬件支持OpenAI gpt-oss開放推理模型

AMD、高通旗下硬件支持OpenAI gpt-oss開放推理模型

文章圖片



AMD和高通要挑戰英偉達的AI霸主地位?
OpenAI以Apache 2.0許可證的形式推出了兩款gpt-oss系列開放推理模型 , 其中參數規模較小的gpt-oss-20b模型可在僅配備16GB內存的邊緣設備上運行、參數更多的gpt-oss-120b 則能在單個80GB GPU上高效運行 。
AMD 與高通均宣布旗下硬件支持 gpt-oss 系列開放模型 , 具體是 AMD 銳龍 AI Max+ 395 處理器支持 gpt-oss-120b、AMD Radeon RX 9070 16GB 顯卡支持 gpt-oss-20b、高通旗艦驍龍平臺支持 gpt-oss-20b 。
AMD 宣稱銳龍 AI Max+ 395 是全球首款能運行 gpt-oss-120b 模型的消費級 AI PC 處理器 。 銳龍AI Max+395處理器憑借128GB統一內存架構 , 將96GB分配給GPU的方案 , 成功突破gpt-oss-120b模型61GB顯存的需求瓶頸 。 30 Token/s的推理速度雖不及頂級數據中心GPU , 但在消費級市場已屬突破 。 Radeon RX 9070顯卡對gpt-oss-20b的優化 , 則瞄準了中端推理市場 。
高通則充分發揮移動端優勢 , 根據早期測試 gpt-oss-20b 可在端側實現出色思維鏈推理表現 , 開發者可通過 Hugging Face 和 Ollama 等熱門平臺在搭載驍龍芯片的設備上訪問 gpt-oss-20b 模型并充分發揮其功能 。
從技術參數看 , AMD方案在內存帶寬管理上采用GGML框架的MXFP4量化技術 , 將模型精度控制在可接受范圍內 。 高通則依靠長期積累的AI加速器IP , 在能效比方面建立優勢 。
有評論稱 , AMD和高通此舉是挑戰英偉達AI霸主地位的重要嘗試 。 競爭將圍繞三個核心維度展開:首先是邊緣計算場景的滲透率 。 醫療、工業等對數據隱私要求高的領域可能成為突破口 。 其次是成本效益比 , 采用開放模型的TCO(總體擁有成本)優勢需要實際案例驗證 。 最后是軟件生態的成熟速度 , PyTorch等框架的適配進度將直接影響開發者遷移意愿 。
未來12-18個月將是關鍵窗口期 。 如果AMD和高通能實現:在3個以上主流行業落地標桿案例;開發者工具下載量突破百萬級;建立可持續的商業模式 , 那么AI加速器市場有望形成三足鼎立格局 。 否則 , 開放模型可能僅停留在技術演示階段 , 難以真正動搖現有市場結構 。
OpenAI發布開源模型GPT-OSS近日 , OpenAI發布兩款開放權重AI推理模型 。 其中參數量達到1170億的gpt-oss-120b能力更強 , 可以由單個英偉達專業數據中心GPU驅動;參數量210億的gpt-oss-20b模型 , 則能夠在配備16GB內存的消費級筆記本電腦上運行 。
兩款模型都以寬松的Apache 2.0許可證發布 , 企業在商用前無需付費或獲得許可 。
就模型性能而言 , GPT-OSS大致位于開源模型的第一梯隊 , 但整體略遜于自家的GPT-o3和o4-mini 。 例如在Codeforces(帶工具)的編程測試中 , gpt-oss-120b和gpt-oss-20b的“跑分”分別為2622和2516分 , 雖然高于一些頭部開源模型 , 但依然比不過頭部閉源推理模型 。 而在“人類最后的考試”測試中 , 兩款開源模型的得分分別為19%和17.3% , 同樣比不過o3 。

與閉源模型類似 , 兩款開放模型都采用了混合專家(MoE)技術 , 處理問題時只會激活較少的參數 。 對于1170億參數量的gpt-oss-120b , 處理每一個token時僅激活51億個參數 。
值得注意的是 , 相較o3和o4-mini模型 , 兩款開放模型也會出現更多的幻覺 。 OpenAI解釋稱 , 由于較小的模型擁有的世界知識比大型前沿模型少 , 所以更容易產生幻覺也在意料之中 。 在OpenAI內部用于衡量模型對人物知識準確性的PersonQA基準測試中 , gpt-oss-120b和gpt-oss-20b分別對49%和53%的問題產生幻覺 , 達到o1模型的3倍多 , 也高于o4-mini模型的36% 。
【AMD、高通旗下硬件支持OpenAI gpt-oss開放推理模型】*聲明:本文系原作者創作 。 文章內容系其個人觀點 , 我方轉載僅為分享與討論 , 不代表我方贊成或認同 , 如有異議 , 請聯系后臺 。
想要獲取半導體產業的前沿洞見、技術速遞、趨勢解析 , 關注我們!

    推薦閱讀