
蘋果最快將在 iOS 26.4 中測試由 Gemini 驅動的 Siri,可以讀取螢幕執行操作,可能未來幫你打開外帶軟體點奶茶都是小意思。彭博社馬克古爾曼稱 2 月蘋果將以某種形式向大眾展示這些由 Gemini 驅動的新功能,新版 Siri 將提供更強大的功能而不是像玩具,而蘋果的自研模型舉步維艱,這也是蘋果還是得靠其他 AI 公司的原因。
本月初蘋果宣布與Google建立合作關係,蘋果長期以來在自己的人工智慧模型研發方面舉步維艱,因此後續蘋果將主要使用谷歌的 Gemini 模型為未來的蘋果智慧 (Apple Intelligence) 提供支援。
彭博社知名編輯馬克古爾曼發布最新消息稱,蘋果與谷歌的合作預計將在下個月的 iOS 26.4 測試版中亮相,蘋果計劃以某種形式向公眾展示這些由 Gemini 模型驅動的新功能。
iOS 26.4 測試版中的 Siri 將可以讀取螢幕上的內容並代為為用戶執行某些應用程式操作,可能後續用戶只需要透過語音命令就可以讓 Siri 幫助你打開外帶軟體自動下單奶茶或咖啡。
值得注意的是基於隱私考慮蘋果仍然希望谷歌的模型能夠在蘋果的私有雲計算上運行,為 Siri 提供服務的 Gemini 模型在蘋果內部被稱為 Apple Foundation Model V10,該模型使用包含 1.2 兆參數的模型。
然而由於提供的功能非常複雜因此蘋果無法完全離開谷歌的人工智能基礎設施支持,也就是說部分服務通過蘋果的私有雲計算運行,部分服務可能仍然需要調用谷歌的人工智能基礎設施運行。
馬克古爾曼還透露蘋果將在 iOS 27 和 macOS 27 中全面引入聊天機器人功能,這些功能將由 Apple Foundation Model V11 提供支持,這些模型的品質可能接近 Google Gemini 3。
至於蘋果自己的人工智慧模型目前並沒有太多消息,但相信蘋果應該是不會放棄自己研發模型的,畢竟使用谷歌模型還需要每年向谷歌支付 10 億美元以及牽涉到隱私問題,自己研發模型後可以接近成本和隱私問題。