
近期蘋果舉辦了2026財年第一季財報電話會議,在本次會議上,官方正式對外界詳細解釋了引入Gemini後,新版Siri將如何運作。蘋果CEO蒂姆·庫克重申,與谷歌的這項各做,是將谷歌的AI技術作為“蘋果基礎模型”的底座,起目的是帶給用戶更多創新的體驗,同時讓蘋果能夠集中精力開發具有高度個性化的功能。
庫克將與Google的合作描述為一種協作關係。谷歌的底層模型將負責處理邏輯判斷、基礎任務以及廣泛的網頁搜尋查詢,而蘋果設計的「個人化Siri」層則負責將這些回應與用戶的個人習慣、跨應用資料相結合,確保Siri的互動體驗仍然符合用戶的核心美學與偏好。新款Siri還將具備強大的“螢幕感知能力”,能夠識別當前螢幕顯示的內容並執行相應指令,例如在查看訊息時直接保存地址或在閱讀郵件時設定提醒。
此外,即便引進了外部模型,蘋果依然堅持隱私保護。所有AI任務將繼續透過裝置端處理與蘋果獨有的「私有雲運算」運行,確保用戶資料的安全與隔離。這種整合方式將涵蓋iOS、iPadOS和macOS的各個環節,以個人化且私密的方式提升跨產品的價值。
據了解,採用Gemini技術的新版Siri預計將隨著iOS 26.4發布,而全新的Siri架構,則預計將在2026年6月的WWDC上隨iOS 27亮相,屆時其能力預計可與谷歌的Gemini 3媲美。