GPU如何引領AI數據中心繁榮?

GPU如何引領AI數據中心繁榮?

文章圖片

GPU如何引領AI數據中心繁榮?

文章圖片


本文由半導體產業縱橫(ID:ICVIEWS)編譯自idtechex
2025年 , GPU的部署量將呈指數級增長 。

人工智能數據中心和云計算需要世界各國大力投資 。 “自主人工智能”一詞在各國紛紛建設自主人工智能基礎設施的過程中變得日益流行 , 人工智能數據中心甚至被稱為“人工智能工廠” 。 隨著這些數據中心的日益普及 , 其所需的加速計算芯片在當今市場上炙手可熱 。 這些芯片包括先進的CPU、GPU、ASIC以及新興的人工智能芯片技術 。
IDTechEx 估計 , GPU(圖形處理器)將在 2024 年占據 AI 芯片總收入的 82% , 而到 2025 年 , GPU 的部署量將呈指數級增長 。 這主要由科技巨頭 NVIDIA 引領 , 該公司于 2024 年推出了最新的 Blackwell GPU , 并在 2025 年全年加大了部署力度 。 然而 , AMD 目前憑借其 MI300 和最新的 MI350 系列 , 是數據中心 GPU 市場的有力競爭者 , 這些系列也贏得了大規模 GPU 集群的大量出貨訂單 。 主要買家仍然是美國超大規模計算平臺 AWS、微軟、Meta 和甲骨文 。
NVIDIA在2025年5月告訴投資者 , 主要的超大規模提供商每周都會部署近 1000 個 NVL72 機架(72000 個)Blackwell GPU , 據報道 , 保守估計 2025 年 Blackwell GPU(GB200)的出貨量將達到 250 萬個 。 AMD 的 MI350 系列出貨量不斷增長 , 并將于 2025 年 6 月開始量產 。 AMD 最大的交易之一是與 Humane 進行數十億美元的合作 , 以構建完全基于 AMD CPU、GPU 和軟件的 AI 基礎設施 , 同時還與Oracle達成了多達130000個MI355X GPU的交易 。
GPU 最初是圖形處理器 , 現在是訓練 AI 的支柱自 20 世紀 70 年代以來 , 圖形處理單元 (GPU) 就一直用于圖形渲染和計算 。 IBM和Itari 是首批芯片設計公司之一 , 他們開發了用于個人電腦和街機的圖形硬件 , 用于處理簡單的 2D 渲染操作 。 20 世紀 90 年代迎來了技術的新一輪繁榮 , 3D 圖形技術逐漸受到青睞 。
進入 21 世紀 , GPU 開始用于科學計算 , 例如模擬和圖像處理 , 并使用專門為充分利用并行處理能力而創建的軟件庫 。 21 世紀末 , NVIDIA 發布了 CUDA , AMD 發布了 Stream SDK(現為 ROCm) , 這在學術界之外得到了廣泛應用 。 這至關重要地允許開發人員將 GPU 用于通用計算 , 而不僅僅是圖形處理 。
2010 年代初 , 人們對人工智能的興趣開始普及 , 當時出現了一些著名的人工智能模型 , 如 AlexNet、ResNet 和 Transformers , 它們都展示了深度學習和自然語言處理能力 。 這些模型針對 NVIDIA GPU 進行了優化 , 并利用了 NVIDIA 的庫和框架 。 這些模型使用 GPU , 為各種人工智能任務設定了新的性能基準 。 現在 , GPU 因其執行大規模并行處理、達到高數據吞吐量以及支持高級庫(例如 cuBLAS 和 cuDNN)的能力而被廣泛使用 , 這些庫為線性代數和深度學習提供了高性能例程 。 這正是訓練當今最大型人工智能模型所需要的 , 包括 OpenAI 的 ChatGPT、Anthropic 的 Claude 或Google的Gemini等 。

GPU的技術基礎GPU(圖形處理單元)由數千個并行執行指令的核心組成 。 每個核心都經過優化 , 可同時在多個數據點執行同一條指令 , 這被稱為 SIMD(單指令多數據) 。 每個核心都比 CPU 中的內核簡單得多 。
與 CPU 相比 , GPU 的緩存系統略遜一籌 , 但它們擁有更多專用于計算的晶體管 , 因此可以犧牲延遲優化來獲得高吞吐量 。 這種架構使 GPU 能夠以更快的吞吐量和更高的效率執行需要矩陣乘法和并行計算的任務 。
【GPU如何引領AI數據中心繁榮?】每個 GPU 核心都能夠以特定數據格式執行不同精度的計算(例如 , FP32 精度較高 , 而 FP4 精度較低) , 這使得它們適用于各種 AI 工作負載 。 事實上 , 這些數據中心 GPU 擁有稱為張量核心的特定核心 , 這些核心專為神經網絡訓練和推理所需的矩陣乘法而設計 。
低精度、混合精度和專用數據格式是當今高端 GPU 的基礎 。 低精度尤其有利于快速 AI 推理:NVIDIA 已將低精度精度降至 FP4 , AMD 也宣布其 MI355X 處理器兼容 FP4 。
對于 GPU 設計師來說 , 擁有能夠有效利用這些核心的軟件是一個關鍵障礙 , 而這正是市場領導者具有優勢的地方 , 尤其是在擁有龐大的開發者社區的情況下 。
數據中心 GPU 的關鍵技術趨勢和挑戰高性能 GPU 持續采用更先進的晶體管 , 2nm 和 18A 節點將于 2026 年起發布 。 這些先進節點通過提高晶體管密度來提升 GPU 的性能 。 然而 , 這些先進節點需要 ASML 的高數值孔徑 EUV(極紫外)光刻設備 , 每臺設備的成本將高達 7.8 億美元 。
其他挑戰包括低良率、高發熱量、高研發成本以及材料挑戰 。 追求更小節點的經濟價值越來越不明確 , 投資的合理性也越來越難以證明 。
許多廠商正在增加硅片的總面積 , 這意味著增加芯片中的晶體管數量 。 關鍵技術策略包括將芯片拼接在一起(例如 , NVIDIA的Blackwell GPU和Cerebras的非GPU晶圓級引擎) , 以及采用3D堆疊的chiplet技術 。 chiplet 技術可以提高良率 , 但可能會降低內存帶寬 。
先進封裝至關重要 。 NVIDIA 和 AMD 使用臺積電的 2.5D CoWoS 封裝 。 臺積電的 CoWoS 封裝已達到產能上限 , 這意味著其他代工廠可能會使用類似技術來滿足需求 。 AMD 也面臨同樣的問題 , 日月光 (ASE)、安靠 (Amkor)、力成 (Powertech)和京元電子 (KYEC) 等公司都可能是 AMD 的潛在合作伙伴 , 為其提供替代的先進封裝技術 。
高帶寬內存 (HBM) 已得到廣泛采用 , 用于提供大型 AI 模型所需的內存 。 HBM 主要由三星、SK海力士和美光三大廠商提供 , 目前這些廠商的頂級 GPU 已開始采用 HBM3e 。 HBM4 預計將于 2025 年下半年實現量產(SK 海力士) 。

AI芯片市場持續發展 , 盡管GPU仍占據主導地位 , 但也面臨挑戰 。 其他AI芯片包括超大規模廠商開發的定制ASIC(專用集成電路) , 以及各家初創公司利用新興芯片技術開發的GPU替代方案 。
*聲明:本文系原作者創作 。 文章內容系其個人觀點 , 我方轉載僅為分享與討論 , 不代表我方贊成或認同 , 如有異議 , 請聯系后臺 。
想要獲取半導體產業的前沿洞見、技術速遞、趨勢解析 , 關注我們!

    推薦閱讀