看遍了所有的「AI PC」,原來 Mac 一直在這里|AI 器物志

看遍了所有的「AI PC」,原來 Mac 一直在這里|AI 器物志

文章圖片

看遍了所有的「AI PC」,原來 Mac 一直在這里|AI 器物志

文章圖片

看遍了所有的「AI PC」,原來 Mac 一直在這里|AI 器物志

文章圖片

看遍了所有的「AI PC」,原來 Mac 一直在這里|AI 器物志

文章圖片

看遍了所有的「AI PC」,原來 Mac 一直在這里|AI 器物志

文章圖片

【看遍了所有的「AI PC」,原來 Mac 一直在這里|AI 器物志】看遍了所有的「AI PC」,原來 Mac 一直在這里|AI 器物志

文章圖片

看遍了所有的「AI PC」,原來 Mac 一直在這里|AI 器物志

文章圖片

看遍了所有的「AI PC」,原來 Mac 一直在這里|AI 器物志

文章圖片

看遍了所有的「AI PC」,原來 Mac 一直在這里|AI 器物志

文章圖片

看遍了所有的「AI PC」,原來 Mac 一直在這里|AI 器物志

文章圖片

看遍了所有的「AI PC」,原來 Mac 一直在這里|AI 器物志

文章圖片

看遍了所有的「AI PC」,原來 Mac 一直在這里|AI 器物志

年初 , Mac Mini 一度缺貨 , 等待時間甚至長達一個半月 。
Mac mini 是個好產品 , 這件事大家一直很清楚 。 國內渠道價格誠意高 , M 芯片性能又好 , 入門配置不到三千人民幣就可拿下 , 很適合作為創作新手的主力機 。
然而最近這次 Mac mini 爆紅 , 跟創作或日常使用沒什么關系 。
關注科技新聞的朋友們應該知道怎么回事:OpenClaw(前身叫 Clawdbot)突然火了 。
OpenClaw 有多種部署方式:你可以裝到自己的電腦上 , 也可以單給它配一臺電腦;把它部署在云端的虛擬機/沙箱環境里也沒問題;后來 , 一些主流 AI 服務也推出了云端一鍵部署的替代方案 , 顯著降低小白玩家的門檻 。
但在剛開始的那段時間 , 最主流的部署方案就是單買一臺 Mac mini 。
理由肯定不是因為它便宜 , 更主要在于:要讓 OpenClaw 有意義 , 需要給它一個「肉身」 , 讓它訪問文件、操作軟件 。
云服務器能運行 OpenClaw , 但那仍然不是你的電腦 , 沒有你的文件、軟件、瀏覽器上登錄的各種賬號 , 沒有所謂的「上下文」 。 Mac mini 放在桌上 , 7 × 24 小時不用關機 , 甚至通過聊天機器人遠程操控的話都不用單配一臺顯示器 。
給 OpenClaw 一臺自己的電腦工作 , 唯一可觀成本是后端接入的大模型 API 的 token 費用 , 很多早期玩家都在這上面吃過虧 。 但如果你買一臺配置夠高的 Mac mini , 下載一個尺寸足夠大的模型到本地來運行 , 可以說除了電費和網費之外 , 簡直就像獲得了一個免費的勞動力……
MacBook 也行 , 但是……
據 Tom’s Hardware 和 TechRadar 等媒體報道 , OpenClaw 走紅后 , Mac mini 24GB 和 32GB 配置的等待期延至 6 天到 6 周不等;更強大的 Mac Studio , 交貨時間也從兩周漲到了近兩個月 。
這些等待時間 , 是 OpenClaw 的早期玩家們 , 用真實購買投出來的票 。
(注:部分機型的缺貨也和蘋果近期推出新款 Mac 臺式機電腦有關系 , 以往每次推出臨近新機發布時 , 老機型都會進入售罄狀態 。 OpenClaw 的爆紅并非唯一原因 。 )
冥冥之中 , Mac 成為了 2026 年首選的「AI PC」;反倒是鼓吹了「AI PC」好幾年的 Windows PC 行業 , 一點熱乎的都沒吃上 。
英特爾、AMD、高通等芯片商 , 以及主流 PC 品牌們 , 從 2023 年就開始販賣「AI PC」的概念了 。 這些最新的 Windows 電腦當中 , 認證過 Copilot+ PC 的比比皆是 , GPU、NPU 性能并不差 , 有的整機價格比 Mac 對等產品要便宜的多 。
但問題是 , 為什么大家還是一窩蜂地沖向 Mac?

為什么是 Mac?Windows PC 和 Mac 誰更好的爭論 , 永遠沒有絕對答案 。 但如果限定在 AI 開發上 , Mac 成為了心照不宣的選擇 。
雖然大模型的「大腦」都在云端服務器 , 開發者的手卻都在 Mac 上 。 這跟 Mac 電腦的外形和操作體驗關系不大:macOS 流著 UNIX 的血液 , 才是關鍵 。
AI Agent 的核心工作是操作文件、調用命令行工具、調度 API 甚至控制圖形界面等 。 說的更直白一點 , Agent 就是一個智能且自動化的「腳本工程師」 , 只是腳本由大語言模型實時生成 。 而 macOS 屬于類 UNIX 系統 , bash、zsh 命令原生支持優秀 。
這解決了 AI 開發中最基礎的環境搭建 。 在 Windows 上 , 你可能得先安裝 WSL2 虛擬機 。 但在 Mac 上 , 從 Python 環境到復雜的 C++ 編譯工具鏈 , 基本都是開箱即用 。 Homebrew 等包管理器 , 讓安裝各種工具和依賴通過一行命令就能搞定 。
另外 , macOS 符合 POSIX 標準 , 處理文件路徑、多線程任務和網絡協議時可靠性稍高 。 Agent 往往需要頻繁讀寫數據、調用 API , 系統級的高效調度讓 agent 在 Mac 上的節奏更快 。
這種原生感和穩定性 , 讓開發者、嘗鮮用戶可以更快完成入門 , 把更多時間花在真正的 agent 編排工作上 。
Windows 有 WSL、PowerShell , 功能上大部分也都能覆蓋 。 但 WSL 是疊加在 Windows 上的兼容層 , 存在路徑約定、注冊表機制、權限模型等歷史遺留問題 。 AI 模型和 agent 項目在 Windows 上運行的摩擦 , 確實會更多一些 。
以 Ollama 和 LM Studio 為例 , 這兩個工具讓端側推理大模型變得像「下載、安裝、運行」一樣簡單 。 Ollama 的 Windows 版比 macOS 晚了半年;LM Studio 雖然從一開始就支持兩個平臺 , 但在社區里 Mac 的體驗口碑始終更好;OpenClaw 也是如此 。
往硬件層面繼續深入 , 內存是大語言模型推理運行的命脈 。
還是以 OpenClaw 舉例 , 用戶可以通過 token 付費的方式來接入云端模型 , 但它更擅長的能力是在端側模型推理驅動 。 經過普遍調研 , 想要讓 OpenClaw 像個智商合格的人一樣工作 , 后端的模型參數量的底線在 70 億左右 , 往往要上到至少 320 億參數量才能比較穩定地工作 。
這么大的模型即便在 4-bit 量化之后 , 仍然需要大約 20GB 內存(還要留一些給上下文窗口) 。
此時 , Windows PC 的架構會顯得捉襟見肘 。 CPU 內存和顯存之間存在物理隔離 , 數據經由 PCIe 總線傳輸 , 受到帶寬瓶頸的影響 。 頻繁的數據搬運 , 會對推理過程帶來速率的影響 。
更別提 , 大模型普遍依賴 GPU 加速推理 , 顯存得足夠裝得下模型 。 在英偉達消費級顯卡線中 , 只有 90 后綴的 24GB 顯存達到了配置要求 , 但配出整機(只考慮新機)的話合計成本至少在萬元人民幣以上 , 用新卡的話會飆到 4、5 萬不等 。
而蘋果的統一內存架構 (Unified Memory Architecture), 讓 M 系芯片的 Mac 在端側推理更大規模的模型時游刃有余 。
簡單來說 , 統一內存架構的效果 , 是 CPU、GPU、神經計算引擎能夠共享同一個內存池 , 不再有物理總線搬運的損耗 , 讓 Mac 可以獲得極高的內存帶寬 , 并且對于多機串聯的擴展性能更好 。
以 Mac mini 為例 , 選擇性能更高的 M4 Pro 處理器 , 搭配 48GB 內存 , 其它選基礎配置 , 整機價格在 1.3 萬元上下 , 即可達到 OpenClaw 社區普遍推薦的 320 億參數量模型的配置水平 。
當然這還只是對 token 吞吐速度有要求的專業配置 。 如果你屬于愛好者、嘗鮮玩一下 OpenClaw , 配置下降到常規 M4 芯片和 32GB 內存也是能跑起來的 。
當然 , 這個成本對比還是有前提:專用于端側推理/跑 OpenClaw , 而不是當做主力機 。 同等價位的 Windows PC 還能打游戲、剪視頻 , 通用性更強 。
另外 , Mac 的統一內存和 PC 平臺獨顯的顯存也不是一回事 。 統一內存由系統和模型共享 , 一臺 32GB 內存的 Mac mini , macOS 系統和其他軟件仍需占據幾個 GB 。 而 RTX 3090 的顯存獨立 , 模型可以全部占用 , 甚至配合 CPU 內存跑更大的量化模型 。
如果你只用云端 API 做 OpenClaw 的大腦 , 不考慮端側部署 , 那 Mac 的易用性優勢依然在 。
另外 , CUDA 雖然提供了統一內存編程接口 , 但物理上 CPU 內存和 GPU 顯存依然分離 , 數據搬運和帶寬瓶頸并未消除 。
再來看功耗 。
Agent 的工作方式是持續循環的:任務觸發、思考推理、執行、等待、再觸發 。 前述配置的 Windows PC 會跑到 300-400W 左右(本地部署) , 散熱噪音和電費都不是小數目 。
Mac mini 通常穩定功耗在 10-40W 左右 , 峰值功率 65W(M4)或 155W(M4 Pro) , 散熱可控 , 幾乎沒有風扇噪音 , 運行更安靜 。 這種低延遲、低功耗的持續工作方式 , 會產生潛移默化的體驗差異 。
網友 3D 打印的 Mac mini 外殼套件「Clawy MacOpenClawface」
當然我們更多還是圍繞 OpenClaw 這個以推理為主的場景進行討論 。 如果工作涉及本地微調 , 并且對于效率有追求的話 , 那么在 macOS 平臺要往往要到 Mac Studio , 或至少頂配的 MacBook Pro , 才能算摸到門檻 。
與此同時 , Mac 不支持 CUDA 也是個可能永遠都無法改變的事實 。 不過 , CUDA 的真正戰場是模型訓練 , 推理場景對它的依賴小得多 , 畢竟蘋果在推理上有 MLX 這張王牌(后面會詳述) 。
再回到 OpenClaw:它的創造者 Peter Steinberger 曾經公開表示 , 自己很喜歡 Windows , 覺得它的功能更強 。 他在 Lex Fridman 播客中說 , Mac mini 不是唯一的「肉身」選擇 , 通過 WSL2 方式運行 OpenClaw 已經非常成熟了;他甚至公開吐槽蘋果在 AI 領域「搞砸了」 , 并且對蘋果生態的封閉性感到不滿 。
但客觀來講 , 對于技術小白型用戶的部署門檻 , Mac mini 確實是最省心、最容易上手的方案 。 主要原因就是它的功耗、靜音、尺寸足夠小 , 像是一個可以插在墻角、24 小時待機且不需要維護的「服務器節點」 。
還有一個和功耗有關的例證:前幾天有一位工程師 Manjeet Singh 成功實現了對 M4 處理器上「神經引擎」(Neural Engine , 簡稱 ANE)的逆向工程 , 發現 ANE 的功耗效率極高:算力跑滿時的效率高達 6.6 TOPS/W 。
對比蘋果的 M4 GPU , 約合 1TOPS/W;英偉達 H100 大約 0.13 , A100 是 0.08 TOPS/W 。
折算一下 , A100 單卡的吞吐性能是 M4 ANE 的 50 倍 , 但 M4 ANE 的功耗性能卻是 A100 的 80 倍 。 原作者在文章里寫道:對于端側推理 , ANE 的性能是非常出色的 。

由神經引擎說開2011 年 , 蘋果在 A5 處理器的圖像處理單元 (ISP) 中首次通過硬寫入的方式 , 實現了人臉實時檢測等后來被視為 AI 任務的功能 。
2014 年 , 蘋果收購了 PrimeSense 公司 , 并開始研發一種全新的、專門用于神經網絡計算的協處理器 。 這方面的工作在三年后的 iPhone X 上問世:A11 Bionic 處理器當中加入了前面提到的神經引擎 ANE , 算力只有區區 0.6 TOPS , 用來驅動 Face ID 和拍照人像模式 。
那時 AI 還沒到大模型時代 , 跑的主要是各種機器學習算法 。 市場對蘋果這塊協處理器的推出并沒什么特別的反應 。 但蘋果從未放棄過 , 持續加碼 。
三年后 , M1 發布 , 統一內存架構同時到位 ,ANE 也進駐了 Mac 。 桌面平臺的功率預算更充足 , 也讓 ANE 的算力跳到 11 TOPS 。 此后每代更新:M2 是 15.8 TOPS , M3 是 18 TOPS , M4 是 38 TOPS , 到了 2025年底的 M5, 達到了 57 TOPS 。 從 M1 到 M5 , 蘋果的 ANE 算力漲了超過 5 倍 。
這個增長背后的邏輯 , 其它 PC 廠商不能說不羨慕 。 蘋果為 Mac 加入 AI 加速硬件之前 , 已經有數千萬甚至上億臺 iPhone 在跑同一套 ANE 架構了 。 功耗表現、穩定性、極端情況下的邊緣案例 , 在市售機型上已經得到驗證 , 再搬到 Mac 上來 。
英特爾和 AMD 在移動端幾乎沒有消費級規模;高通雖然同樣把 Snapdragon 芯片放進了數億臺 Android 手機 , 但它只是芯片供應商 。 Android 上的 AI 是谷歌 (Gemini) 以及各大手機廠商聯合第三方 AI 實驗室做的;Windows 的 AI (Copilot) 是微軟做的 。
蘋果的不同在于 , 它實現了垂直整合 , 同時掌控硬件和軟件 。 其他芯片廠商沒有這種統一控制權 。
當然 , 在 Mac 上推理大語言模型 , 其實跟 ANE 沒什么關系 , 它更擅長處理 Face ID、人像識別這類固定模式的 AI 任務 。 真正承擔主要計算量的是 GPU 。
(注:最近情況發生了細微的變化 。 首先 , M 系列芯片上的 ANE 已經承擔提示詞注入 prefill 階段的工作了;以及剛才提過的 M4 ANE 逆向工程:該工程師還實現了跳過 CoreML 直接調用 ANE , 吞吐量顯著提升 。 通過這種思路 , 或許可以找到直接利用 ANE , 來加速推理甚至訓練的通用方法 。 )
2023 年底 , 蘋果開源了 MLX , 把專門針對 M 系列芯片優化的模型推理框架直接給了開發者 。 去年 , 基礎模型框架隨 Apple 智能發布 , App 開發者可以在 iPhone 和 Mac 上調用系統內置的基礎模型 , 無需聯網 , 數據不離開設備 。
Apple 智能一再跳票 , 這件事確實沒什么好辯護的 。 不過 , 蘋果遠在 10 年前就開始試水 , 在多年以前就為桌面級 AI 開發打下了基礎 , 是不爭的事實 。
而在 Windows 那邊 , 「AI PC」這個詞開始出現在英特爾、AMD 和 PC 廠商的新聞稿和 ppt 里 , 要到 2023 年底了 。
AMD 官網 2023 年截圖
2024 年 5 月 , 微軟發布 Copilot+ PC 認證體系 , 旗艦功能名叫「Recall」 , 大概的邏輯是系統持續對屏幕內容截圖 , 然后 Windows 的系統級 AI 能夠幫你回憶過去看到過的東西 。
先不說這個功能在發布當時的實際意義是什么 , 它的安全性首先被發現有嚴重問題:僅在發布一個月后 , 研究人員就發現 Recall 功能會把所有截圖存在一個未加密的本地明文數據庫里 。
微軟緊急撤下了 Recall 功能 。 過了半年微軟再次推出測試版 , 結果再次因為新的安全問題而延遲 。 直到 2025 年 4 月 , Recall 才正式上線 , 但改成了默認關閉 , 啟動后數據改為加密存儲 。
從發布會宣傳到真正能用 , 將近一年 , 可以說整個 Windows 生態 AI PC 的旗艦功能 , 經歷了一整次從頭重新設計 , 尷尬程度其實不亞于 Apple 智能/新版 Siri 的一跳再跳 , 但可能因為 Windows 生態的聲量實在太低 , AI PC 沒多少人關注 , 很多人都沒聽說過這回事 。
在 Copilot+ PC 這個體系的認證標準方面 , 微軟主要針對的是神經處理引擎 NPU , 要求是 40TOPS 。 不過 , 這個算力的用途是實時字幕、背景虛化、照片增強 , 諸如此類的消費端窄任務 , 大語言模型推理從來不在它的射程里(和蘋果 ANE 同理) 。
當開發者嘗試去做端側大語言模型推理時 , 會發現雖然這些電腦名為 AI PC , 但并沒針對 AI 推理用途做什么優化 。 微軟 Copilot 本身的核心算力來自 Azure 云端 , 和端側自身的算力幾乎無關 。 買了一臺 Windows AI PC 的用戶 , 最能感知到的 AI 提升 , 大概是實時字幕和照片自動分類 。
說到端側推理 , 還有一個關鍵因素:Windows AI 生態的優化路徑是分散的 。
NVIDIA GPU 用 CUDA 和 TensorRT , Intel NPU 用 OpenVINO , 高通 NPU 用 QNN SDK , AMD NPU 用自家驅動棧 。 模型存儲格式也較為碎片化 , 有 CPU+GPU 推理的通用格式(GGUF , 準確來說是 CPU 推理 + GPU 分層卸載) , 也有 GPU-only 的格式(EXL2) 。
這意味著想讓模型以及模型驅動的功能運行在 Windows AI PC 上 , 在推理后端方面的工作會更加復雜 。 微軟有 ONNX Runtime 和 DirectML(已進入續命狀態)作為統一抽象層 , 但統一的代價是犧牲各廠商的峰值性能 。 蘋果是目前唯一一家為自家 PC 硬件專門開發并持續維護 LLM 推理框架的 PC 廠商 , 這個框架就是 MLX 。
在 Hugging Face 等開源模型平臺上 , 你會很容易找到大量采用 MLX 框架的模型 , 只要帶有 MLX 后綴 , 并且內存/處理器允許 , 可以直接「開箱即用」 。
不過 , 這幾天 MLX 的主要貢獻者之一 Awni Hannun 剛從蘋果離職 , 為該項目的后續發展增添了些許變數 。 Hannun 也表示 MLX 團隊仍有許多優秀員工 , 可以放心 。

我們自己的體驗過去一年 , 愛范兒自己做了不少端側部署 AI 模型的測試 , 也采訪過一些相關的外部開發者 。 有兩次值得一提 。
去年春節 , DeepSeek 橫空出世 , 新款 Mac Studio 也在節后不久面市 。我們用一臺售價快到 10 萬元人民幣的 M3 Ultra Mac Studio(512GB + 16TB)跑了 DeepSeek R1 671B 模型(注:實際上只需要內存 , 硬盤不用那么大 , 1TB SSD 售價七萬多的型號就夠了) , 以及蒸餾過的 70B 版本 。
我們當時得出結論:對于端側部署對話 , 日常用 70B 足矣 , 花大幾萬買臺機器只為了跟 AI 聊天 , 實在是有錢燒的慌 。 當時的模型能力確實也就不太行 , 后來才有新的多模態模型和 agent 能力出來 。
但 671B 模型的天量參數模型能夠在一臺桌面機上端側推理 , 仍然是一種奇觀 。 512GB 的統一內存上 , 671B 模型占用了 400GB , 加上上下文、macOS 系統本身以及其他任務占用 , 基本接近滿載 , 但機器全程運行安靜 , 噪音在正常范圍 , 也沒有過熱 。
這個參數規模 , 在傳統 AI 基礎設施邏輯里 , 屬于數據中心級別 , 消費級硬件理論上不該出現在這個場景里 。 但那臺 M3 Ultra Mac Studio , 真就硬生生也靜悄悄地出現了 。
后來 , 我們采訪過一個英國牛津大學的創業團隊 Exo Labs 。 他們用 4 臺 512GB 統一內存的 Mac Studio , 通過串聯的方式組成了一個 128 核 CPU、320 核 GPU、2TB 統一內存、總內存帶寬超過 3TB/s 的算力集群 。
團隊為這個 Mac 集群開發了調度平臺 Exo V2 , 可以同時加載 2 個 DeepSeek 模型(V3+R1 , 8-bit 量化) 。 不但兩個模型并行推理 , 研究人員甚至可以通過 QLoRA 技術來做一些本地微調工作 , 顯著縮短了訓練任務的用時 。 整套系統功耗控制在 400W 以內 , 運行時同樣幾乎沒有風扇噪音 。
同等算力的傳統方案 , 需要大約 20 張 NVIDIA A100 , 當時的成本超過 200 萬人民幣;相比之下 , Exo Labs 這套方案的總成本才不過 40 萬人民幣(同理 SSD 嚴重溢出 , 其實可以 30 萬內就夠) 。
Exo Labs 創始人當時告訴我們 , 牛津有自己的 GPU 集群 , 但申請需要提前幾個月排隊 , 而且一次只能申請一張卡 。 這些桎梏 , 逼迫他們創新 , 而他們又正好遇到了趁手的工具:統一內存架構、MLX , 以及 Mac 電腦 。
我們在當時的文章里寫道:「如果說英偉達的 H 系顯卡是 AI 開發的金字塔尖 , 那么 Mac Studio 正在成為中小團隊手中的瑞士軍刀 。 」
這件事 , 蘋果其實早就知道 。

真正的 AI PC 是什么?去年蘋果發布的基礎模型框架 , 讓 iOS 和 macOS 開發者可以調用系統內置的基礎模型 , 零網絡延遲 , 零 API 費用 , 數據不離開設備 。
盡管后來蘋果基模團隊幾近分崩離析 , 但在迭代方面蘋果沒有停在原地 。 它其實一直知道開發者在哪里、想要什么 。 它的回應 , 就是將大模型驅動的 AI 能力變成操作系統的基礎設施 , 讓開發者更方便調用 。
上周 , 蘋果開源了 python-apple-fm-sdk 。 以往蘋果基模的完整測試和調優 , 需要 Swift 環境完成;現在這套 SDK 讓路變寬了 , 習慣 Python 工作流的開發者也能參與進來 。
蘋果的隱私設計哲學貫穿始終:python-apple-fm-sdk 調用的基礎模型完全在本地運行 , 數據不離開設備 。 蘋果整套 AI 體系在必須上云的場景里 , 走的是 Private Cloud Compute , 數據處理完即刪除 , 蘋果無法訪問 。
反過來看 Recall , 同樣是讓 AI 訪問用戶的私人數據 , 第一版存的是未加密的明文數據庫 。 一個在架構上阻斷泄密 , 一個是出事了再打補丁 。
但話說回來 , Mac 作為 AI 開發和部署工具的優勢 , 嚴格來講更像是一種「適配度優勢」 , 也可以說是后天意外獲得的 。
意思是:蘋果做神經引擎 , 最初是為了服務 Face ID 和人像模式;做統一內存架構 , 是擺脫對 Intel 長久依賴的一部分必要工作;開源 MLX , 是響應開發者對高效推理工具的需求——AI Agent 場景爆發 , Mac 正好趕上 , 是上述這些以及更多沒提到的工程決策的意外收益 。
Mac 一開始并沒有為 AI 而設計 , 它始終的產品定位都更接近「創作者工具」 。 蘋果長久以來的目標用戶 , 是視頻剪輯師、藝術家、軟件工程師 。 他們需要的是低噪聲、持續性能、高內存容量、可以全天候運行的機器 。
AI 模型推理 , 以及時下最火的 Agent 部署 , 只是恰好需要一模一樣的東西 。
回頭看 , 十多年前蘋果在機器學習上加大投入時 , 大概率是不會預見到 2025 年 OpenClaw 的爆紅的 。 甚至你可以說 , 如果放在十年前 , 蘋果大概率是不會喜歡 OpenClaw 這樣一個「回報高風向更高」 , 一旦出現幻覺就把用戶隱私、數據安全拋在腦后 , 無視各種軟件工程方面的規章制度的東西的……
但怎么說呢 , 如今就算蘋果不喜歡它 , 也由不得了 。 就像墨菲定律那樣 , 或許冥冥之中有些東西早已注定 。 多年以來蘋果打下的每一張牌 , 無論有意為之還是出于意外 , 這些牌在今年這個 Agent 元年(希望這次是真的) , 成了一套很難不贏的牌組 。
2023 年開始力推 AI PC 的 Windows 陣營 , 其實一直在追趕蘋果在 2020 年 M1 推出時就已經定下來的架構優勢 。 當然 , 25 年蘋果在 AI 方面壞消息不斷 , 這個差距是有追上的可能的 。 但蘋果不會停下來等 。
就在本周 , 蘋果推出了 M5 Pro 和 M5 Max , 芯片采用雙芯融合架構 (Fusion Architecture) , 還在新聞稿中上點名 LM Studio 作為 LLM 性能基準 。
蘋果過去的硬件新品發布里 , 不怎么說「大語言模型」 , 特別是在端側推理的語境下——現在不一樣了 。

說在最后吹了蘋果一整篇文章了 , 我們冷靜一下 , 反問一下文章的標題:今天的 Mac , 就是真正的 AI PC 嗎?
愛范兒倒覺得 , 蘋果做的還不夠 。 在今天 , 我們還沒有看到一款個人計算產品 , 可以稱之為 AI PC , 抑或真正「原生的 AI 硬件」 。
還是回到 OpenClaw , 從今天的端側部署 agent 身上 , 真正的 AI PC 應該長什么樣子 , 其實已經隱約可見 。
梗圖 , AI 生成
在應用層面 , 面向人類的「應用」概念 , 可能會部分退化回并無圖形界面的狀態 。 畢竟人才需要圖形界面 , agent 不需要 。 而且你會發現 , 最近越來越多人開始習慣基于對話和命令行的互動方式了 。
今天 agent 的嘗鮮者們 , 去找工具和技能塞給 agent;未來 , agent 會自己去公開代碼庫拉取新工具和插件來補強自己 。
在系統層面 , 權限體系將為 agent 的工作原理重構 , agent 能直接操控各種接口 。 在底層 , 會有一套模型的編排調度機制 , 根據任務隨時切換 。
本地推理和隱私云端推理也會形成完整、安全、隱私的閉環 。 數據無論傳到哪里 , 都經過向量化、加密存儲 , 即用即焚……
換句話說 , 真正意義上的 AI PC , 應該是從底層開始 , 從設計之初 , 就把 AI 當作「一等公民」的系統 。
梗圖 , AI 生成
按照這樣的衡量標準 , Mac 和 Windows 目前都處于過渡階段 。 Mac 更接近 , 因為 Unix 環境、硬件統一、生態成熟 , 這些條件在 AI agent 的時代到來之前已經達成了 。 Windows 的歷史包袱更重 , 改起來更難 , 還在補課 。
但我們繞了一大圈 , 其實還沒問到最本質的問題:真正的 AI PC , 真的需要是一臺「PC」嗎?
如果換個思路 , 所有的 agent 部署和運行全都在云上;與用戶有關的數據 , 也即「上下文」也在云端安全和隱私存儲;人類只需要一個終端的設備作為「對話器」(communicator), 以及傳感器 (sensor) , 拍照和錄音來上傳所需要的數據給 agent , 這臺設備甚至不需要太多端側算力 。
Mac 是今天最好的 AI PC , 但未來的「AI PC」 , 卻可能更像……iPhone?
文|杜晨
#歡迎關注愛范兒官方微信公眾號:愛范兒(微信號:ifanr) , 更多精彩內容第一時間為您奉上 。
愛范兒|原文鏈接· ·新浪微博

    推薦閱讀