硬件、模型和智能體,AWS正驅動AI大時代

硬件、模型和智能體,AWS正驅動AI大時代

文章圖片

硬件、模型和智能體,AWS正驅動AI大時代

文章圖片

硬件、模型和智能體,AWS正驅動AI大時代

文章圖片

硬件、模型和智能體,AWS正驅動AI大時代

文章圖片

硬件、模型和智能體,AWS正驅動AI大時代

文章圖片

硬件、模型和智能體,AWS正驅動AI大時代

文章圖片

硬件、模型和智能體,AWS正驅動AI大時代

文章圖片

硬件、模型和智能體,AWS正驅動AI大時代

文章圖片

硬件、模型和智能體,AWS正驅動AI大時代

文章圖片

硬件、模型和智能體,AWS正驅動AI大時代

文章圖片


最近這兩年在說到“云計算”時 , 大多數人首先想到已經不再是更快的云端CPU、更大的互聯網帶寬 , 或者是更大的云端存儲空間 。 原因很簡單 , 因為蓬勃發展的AI技術已經改變了許多人對于“云”的主要需求 。 現在開發者普遍更關注的話題變成了如何更有效地使用那些云端AI工具、訓練屬于自己的智能體 , 或者是利用云計算的彈性來最大化企業AI服務的性價比 。

但我們都知道AI技術最突出的兩大特征 , 一是在于它發展得如此之快 , 新的模型層出不窮 , 造成了硬件反而被快速淘汰 , 開發者們也因此目不暇接 。 其二就是如今的AI已經呈現出各種各樣的隱患 , 從使用成本到隱私保護、從信息治理到AI言行“越界”的監測 , 這些無疑都挑戰著開發者的智慧 , 同時也提高了企業使用AI的潛在成本 。
很顯然 , 整個行業都需要有一套新的體系來支撐AI技術的繼續健康發展 。 而這既包括新的算力硬件 , 也包含新的模型、新的開發環境、新的運營工具 。

2025年12月初 , AWS成為了最早“站出來”解決相關問題的云計算廠商 。 當地時間2025年12月2日 , 就在AWS re:Invent 2025的第二天 , AWS CEO Matt Garman系統性地闡釋了他們應對未來AI需求的全棧生態實力 。
更強大的自研硬件 , 為AI訓練“減負”
熟悉AWS的朋友都知道 , 自研芯片長期以來一直都是其實現超高性能和性價比的關鍵所在 , 這一點在AI時代同樣成立 。

就在此次活動開場后不久 , Matt Garman就披露了AWS的最新款的自研AI訓練芯片Trainium 3 。 根據官方公布的信息顯示 , Trainium 3基于3nm制程打造 , 能效比上代提高了40% , 性能更是達到前代的2倍 。

同時AWS在現場也展示了基于Trainium 3的“UltraServers”機架 。 這套系統擁有4.4倍于前代訓練服務器的性能、3.9倍于前代的內存帶寬 , 并在生成Tokens的能效上達到了前代的5倍之多 。

但AWS的硬件進步尚未停止 , 他們還首次披露了下一代的Trainium 4 。 這款尚在開發中的次時代訓練芯片將會帶來6倍的性能水準 , 2倍的內存容量 。 更為值得關注的 , 是其將可以支持NVIDIA NVLink Fusion技術 , 也就是實現AWS自研芯片與NVIDIA AI芯片的“協同工作” 。

從這一點來看 , AWS的自研芯片顯然并非是為了完全取代第三方的AI加速器硬件 。 相反 , AWS早已成為能提供最多種類云計算實例的品牌 。 就在此次活動中 , Matt Garman也一口氣公布了基于NVIDIA、AMD、Intel , 甚至是蘋果M系芯片的多款新計算實例 。

值得注意的是 , 盡管我們三易生活已經提前了解到關于新一代Graviton處理器的相關信息 , 但Matt Garman在這次演講中卻并沒有提及 。 這或許是因為相比只能用于AI任務的Trainium , Graviton顯然更加“通用” 。 接下來我們也會持續關注AWS新一代通用處理器的信息 , 并在第一時間為大家帶來相關報道 。
更多AI模型選擇 , 自研Nova家族大升級
講完硬件部分 , Matt Garman就開始探討模型選擇在AI開發過程中的重要作用 。 對于AWS而言 , 他們則提供了Bedrock 。 這是一個“應用商店”式的模型選擇和AI程序優化工具 , 開發者可以在AWS的云端服務器上選擇來自多個不同提供方的AI模型 , 同時也可以借助其來定制、優化他們的AI應用程序 。

Matt Garman公布的相關數據顯示 , Bedrock已經成為一些行業巨頭AI服務背后的“賢內助” 。 有超過50家AWS的客戶在Bedrock上處理超過1萬億數量級的Tokens 。

同時Bedrock也在不斷地增強自身的“包容性” , 今天AWS方面就正式宣布 , 來自谷歌、Kimi、MINIMAX和NVIDIA等多個企業的18款新模型在Bedrock“上架” 。 很顯然 , 這也直接證明了如今Bedrock在AI開發領域的“行業地位” 。

當然 , Bedrock并非只依賴于第三方的模型 , 因為AWS也有自研Nova模型家族 。 如今 , Nova已經擴展到了多達8個不同領域的分支版本 。

今天AWS方面也正式公布了全新的Nova 2家族 。 目前它提供四種分支版本 , 其中Lite適用于快速、高性價比的日常負載 , Sonic專注于實時語言對話 , Pro具有AWS迄今為止最高的智能推理能力 , Omini更是成為了業內首款統一的多模態生成和推理模型 。
【硬件、模型和智能體,AWS正驅動AI大時代】
AWS方面公布的信息顯示 , 與Claude Sonnet 4.5、GPT-5.1、Gemini 2.5 Pro等對手相比 , Nova 2 Pro在實測中能夠做到多項指標顯著領先 。 而Nova 2 Omni作為業內首個可接受文本、圖像、視頻和語音輸入 , 并同時生成文本和圖像的AI模型 , 能夠“一口氣”處理多達75萬單詞的文本、數小時的音頻或視頻 , 這就意味著它可以被用于非常復雜的產品分析 , 從而為更“全能”的AI應用打下了基礎 。
為了AI應用的長期“成長” , AWS端出新玩意
正如本文一開始就提及的那樣 , 如今AI技術的一大特征就是更新換代特別迅速 , 這自然就會為開發者帶來更大的挑戰 。 Matt Garman將其比喻為養育孩子 , (開發者)總是想要確保(AI應用)成長和取得成功 , 而不是去犯錯、“惹麻煩” , 要想實現這一點 , 更加智能的工具便可以提供很大的幫助 。

比如AWS Transform得到了進一步的升級 。 這是一個用于將老舊代碼自動“現代化”的智能體 。 現在它加入了自定義特性 , 開發者只需一句話、一個命令 , 就能將過時的程序自動使用新版本的代碼進行“重寫” 。 請注意 , 這與單純的“AI編程”并不一樣 , 它并非完全靠智能體“無中生有” , 而是可以學習原版程序的編程思路 , 對于一些已經長期停止更新 , 甚至開發者都放棄維護了的軟件來說 , 它就顯然尤為可貴 。

當然 , AI不只可以用于解決企業潛在的技術債務 , 它們本身也需要具備能夠持續進化的能力 。 這就是為何AWS在此次活動臨近結束時 , 一口氣發布了多款旨在幫助開發者實現“長期主義”的AI智能體 , 也就是“Frontier Agents”的原因 。

首先 , AWS方面介紹了新的Kiro開發智能體 , 它允許開發者用自然語言描述功能需求 , 并自動生成代碼 。 很顯然 , 它的作用是減少開發團隊的工作量 , 同時也可以避免代碼編寫過程中的人為錯誤 。

此外 , 我們也迎來了AWS安全智能體 , 它可以主動掃描代碼中的漏洞 , 甚至代替人工執行滲透測試 。 這樣一來 , 一方面安全人員可以大幅減少枯燥的工作 , 另一方面也使得開發者可以從一開始就編寫出更安全穩定的代碼 , 而不是在程序上線后再去“考驗”它們 。

當然 , 對于已經上線的服務 , AWS也推出了DevOps運維智能體 , 可以主動發現軟件故障、提供解決方案建議 。 用AWS的話來說 , 它可以讓軟件團隊“多睡一會兒” 。
需要注意的是 , 這三款智能體并非缺乏經驗的“新兵” 。 據AWS方面透露 , 在正式上線前 , 它們實際上已經參與了AWS Bedrock的重構工作 。 當時他們僅用一個6到8人的團隊 , 在智能體的幫助下 , 幾個月時間就完成了過去可能需要更大規模團隊一年才能搞定的工作量 。
全身心投入AI大時代 , AWS有這個底氣
縱觀re:Invent 2025的首場主題演講不難發現 , AWS幾乎是將全部的“資源”都傾斜給了AI、智能體 。 事實上 , 直到最后的10分鐘 , Matt Garman才以極快的節奏 , 介紹了AWS在AI之外、多達25個業務和功能更新 , 而這些涉及數據庫、通用計算實例的信息 , 過去曾都做過re:Invent的“主角” 。

當然 , AWS確實有這樣去做的底氣 。 一方面 , 他們在過去一年取得了驚人的1320億美元營收 , 同時Amazon S3、AWS全球基礎設施等“傳統業務”依然穩穩占據著業界頭部的地位 , 并實現了持續增長 。




另一方面 , 正如Matt Garman所說的那樣 , “在AWS , 一切都要以客戶為中心” 。 當各行各業的頭部企業都依賴AWS來支撐他們的業務 , 而這些客戶目前普遍在經歷著AI時代的重塑時 , 幫助開發者適應這個新的時代 , 自然也就成為了AWS最為緊要的方向 。

    推薦閱讀