蘋果首次承認Siri架構落后,將徹底推倒重新設計

蘋果首次承認Siri架構落后,將徹底推倒重新設計

文章圖片

蘋果首次承認Siri架構落后,將徹底推倒重新設計

文章圖片

蘋果首次承認Siri架構落后,將徹底推倒重新設計

智東西
編譯 | 江宇
編輯 | 漠影
智東西6月11日消息 , 在WWDC 2025的媒體采訪中 , 蘋果高管Craig Federighi和Greg Jozwiak(Jaws)坦言 , Siri的下一個版本需要重新架構 , 原計劃一年上線的功能將推遲至2026年 。
這是蘋果首次正面回應Siri為何難產 , 以及Apple Intelligence整體戰略的節奏安排 。

一、Siri架構重建 , 決定全面轉向V2架構蘋果軟件工程高級副總裁Craig Federighi和全球市場高級副總裁Greg Joswiak首次系統回應了外界關切的Apple Intelligence戰略與Siri演進問題 。
Craig直言不諱地承認 , Siri當前版本(即V1架構)根本無法滿足客戶的期望 , 也達不到Apple的標準 , 這一架構已被團隊內部“基本放棄” 。
雖然在WWDC現場展示了Siri的一些新能力 , 但那并非基于新架構的產品 , 而是在舊有V1架構上推出的一次升級 。
這次升級所包含的Siri體驗改進 , 主要集中在以下幾個方面:
更好的對話理解(語流):Siri能更好地理解用戶在對話中可能出現的錯誤或自我糾正 。 全新的視覺界面:提供了更美觀、更現代的用戶界面 。 支持打字與Siri交流:用戶現在可以通過鍵盤輸入文字與Siri進行交互 。 更強的Apple產品知識:Siri在理解和回答關于Apple產品相關的問題上表現得更出色 。 Craig表示 , 團隊去年曾嘗試在原有基礎上繼續改進 , 但發現“花了很多時間 , 效果仍不理想” 。
因此 , 真正的系統級變革將來自V2架構 。 Craig透露V2架構是一個“更深度的端到端架構” , 并且并非完全從零開始 , 而是基于V1架構的積累 , 將其“擴展到整個Siri體驗 , 使其成為一個純粹的架構” 。
它意味著V2架構將成為Siri整個體驗的底層基礎 , 而不是像V1那樣可能是一個局部或附加的解決方案 。 Siri的所有智能和功能都將圍繞這個核心架構來構建和運行 。
首先 , 是通過應用程序意圖調用設備上更廣泛的操作 。 簡單來說 , Siri將能更好地理解并執行那些涉及多個應用或復雜步驟的指令 。
在V2架構下 , Siri將能識別出你的“應用程序意圖” , 即理解你想要執行“查找照片”、“格式轉換”和“發送郵件”等一系列任務 , “更廣泛地操作”你的設備 , 自動調動并串聯起“信息”、“照片”、“文件”和“郵件”等多個應用或系統功能 , 一步到位地完成這個復雜任務 , 而不再僅僅是執行簡單的、預設好的單一指令 。
其次 , 是利用個人知識進行語義索引 。 這意味著Siri不僅能聽懂你說的話 , 還能理解設備上所有私人信息 。
它會利用“個人知識” , 即你設備上所有的數據——包括郵件、信息、備忘錄、照片等——進行深入的“語義索引” 。 這讓Siri不僅能識別出“播客”這個詞 , 還能理解問題背后的深層含義 , 然后智能地在所有個人數據中進行關聯和查找 , 無論是郵件正文、聊天記錄還是其他應用內容 , 從而準確地找到用戶想要的信息 。
當被問及“是不是還要等一年用戶才能用上新Siri”時 , Craig回答:“那正是我們說的意思 。 ”這正式確認新架構Siri將于2026年才可能面向公眾推出 。
一年前 , 在WWDC 2024上 , 蘋果展示的一款Siri 。
Craig強調:“Apple的原則是:當我們推出某個產品時 , 它必須足夠好 。 ”他明確表示 , 不會“偷跑”上線未成熟的系統 , V2架構必須通過嚴格的內部質量門檻 , 才會正式發布 。
這也意味著 , 當前發布的Siri更新更多屬于過渡性質 , 真正意義上的升級將在2026年到來 。

二、Apple Intelligence不會是聊天機器人 , 追求“用時即現”Craig和Joswiak提到 , 今年Apple Intelligence帶來的是“具體可用的智能” , 而不是抽象的AI概念 。
面對業界對“Apple是否準備與ChatGPT、Gemini正面競爭”的疑問 , Craig明確指出 , Apple并不將Apple Intelligence定義為聊天機器人 。
Siri的愿景從不是一個“聊天工具” , 而是一個可以通過語音和上下文理解來輔助用戶完成任務的系統 。
他強調:“我們并沒有將Apple Intelligence定義為我們的聊天機器人 , 也不是將它視為一個聊天應用 。 我們把它視為在我想做的地方 , 幫助我做我想做的事情 。 ”這種理念也體現在Apple Intelligence的多個設計細節中 。
例如 , 通過語音調取應用、理解上下文、調度快捷指令等功能 , 并非依賴純對話邏輯 , 而是圍繞實際操作需求設計的多模態交互系統 。
值得注意的是 , Apple Intelligence并非完全基于云端大模型 , 而是采用本地模型優先策略 。
Apple向開發者開放了設備端的LLM框架 , 支持在iPhone或Mac本地運行特定推理任務 , 允許Swift直接調用模型能力 。
這意味著第三方App開發者可以直接調用本地模型進行識圖、識物、語義分析等功能 , 而非必須依賴遠程云模型服務 。
Apple還指出 , 必要時可調用私有云或OpenAI模型 , 處理超出設備性能的復雜任務 , 形成“本地優先+私有云+第三方API”的混合智能體系 。

結語:Siri難產 , AI轉身 , 蘋果承認它來晚了蘋果在一定程度上給外界釋放出信號:蘋果正在推翻舊Siri , 重做一遍 。
與此同時 , 蘋果也在刻意避免“做一個聊天機器人” 。 它的AI不追求大模型對話能力 , 而是要深嵌入系統和設備 , 成為“用時即現”的任務助手 。 蘋果沒有否認自己在AI上的落后 。 Craig提到:“當V2準備好后 , 我們不會讓用戶等太久 , 但在此之前 , 我們也不會貿然發布 。 ”
【蘋果首次承認Siri架構落后,將徹底推倒重新設計】來源:YouTube

    推薦閱讀