Gemini并不会接管你的iPhone 苹果仍掌控Siri与Apple Intelligence

发表于 2 小时前 | 显示全部楼层 |阅读模式
32 0
近期,苹果确认将在新一代个性化 Siri 和 Apple Intelligence 战略中引入Google的大模型 Gemini,引发部分用户担忧“Google AI 将侵入设备、Siri 被 Gemini 接管、用户数据大量流向Google”等说法,但这些都与事实不符。 苹果与Google达成的是一项模型授权与训练合作安排,最终在 iPhone 上实际运行、面向用户的,仍然是苹果自有的 Apple Foundation Models,而非Google的 Gemini 模型本身。



根据披露的信息,苹果此前基于“应用意图”(app intents)的新一代 Siri 和 Apple Intelligence 原计划更早推出,却因内部承认的技术路径问题而推迟,这段时间外界不断出现“苹果在 AI 竞赛中落后”“应直接外包给第三方”的唱衰报道。 实际上,苹果选择的是一种早有传闻的路线:以每年约 10 亿美元的规模向Google授权一款参数规模达 1.2 万亿的 Gemini 模型,用作训练和增强 Apple Foundation Models 的工具,而不是把 Gemini 直接嵌入苹果操作系统取而代之。
苹果与Google的联合声明虽措辞刻意含糊,但有一点非常明确:Gemini 将作为“基础”参与构建升级后的 Apple Foundation Models,不过最终对用户提供服务的仍是苹果模型。 苹果强调,在这一合作模式下,苹果不会向Google提供任何用户数据,Gemini 也不会以可见形式出现在 iPhone 上,更不会作为系统级 AI 直接运行在用户设备之中。
就像 iPhone 使用台积电芯片、三星屏幕,但没人会说“iPhone 是三星的”,Gemini 在这里扮演的角色是训练工具,而成品则是苹果的 Foundation Models。 依据报道,苹果正在推进自研约 1 万亿参数级别的大模型,目标是在 2027 年左右投入使用;即便届时模型就绪,苹果仍可能继续让 Gemini 参与对比、强化和再训练,以提升自家模型质量。
对普通用户而言,最终呈现的是一套在本地和苹果服务器上运行的智能工具:更具个性化的新 Siri,以及基于应用意图框架的 Apple Intelligence 功能。 从界面交互看,用户依旧在与“苹果的 Siri”对话,后台调度和推理由 Apple Foundation Models 完成,Google模型处于训练端而非推理端,数据不会在面向用户服务的环节流向Google。
这笔交易对苹果、注重隐私的用户以及Google而言都可谓“三赢”。 苹果迅速获得业界领先模型作为训练支撑,提升自家 AI 能力;隐私层面则维持现有的苹果标准;Google则在不接触苹果用户数据的前提下获取可观授权收入。 唯一被视为“输家”的,是那些本就希望整套生成式 AI 浪潮彻底消失的人,因为当前大模型训练仍然高度依赖对互联网公开信息的爬取。
这份简短声明仍留下不少悬而未决的问题,包括合作条款细节、时长,以及 Gemini 是否未来会像 ChatGPT 一样,作为可选外部模型,通过 Siri 入口被用户主动调用。 目前在 Visual Intelligence 功能中,苹果已经允许用户将图片发送至Google反向图片搜索,因此未来以类似方式扩展到 Gemini 进行更广泛查询在技术上可行,只是苹果暂未在声明中提及。
值得注意的是,这一合作与苹果与Google在搜索领域的合作有本质差异:后者面向用户,用户可以直接感知“默认搜索引擎是Google”;而 Gemini 训练 Apple Foundation Models 的过程则对用户完全“隐身”。 用户与 Siri 交互时不会看到任何 Gemini 标志,也无须分辨“这是苹果还是Google”,因为终端产品整体仍由苹果掌控、部署在苹果控制的服务器和本地设备上运行。
苹果与 OpenAI/ChatGPT 的关系在这次简短声明中没有被正面提及,但一般认为既有合作不会因此受影响。 与此同时,埃隆·马斯克再次公开抨击苹果与Google的 AI 合作,称其造成了“Google权力过度集中”,但文章认为这一说法建立在对技术架构和合作模式的根本误解之上,因为Google在此并不接触用户数据,只是提供模型授权并收取费用。
针对坊间“苹果在 AI 上已举白旗投降”的论调,文章给出明确反驳,认为这是对苹果 AI 战略的误读。 苹果近年来在 AI/ML 研究、底层技术以及硬件方面投入巨大,且产出大量研究论文和芯片优化成果,只是面向普通消费者的 AI 功能落地节奏较慢、体验欠佳,给人一种“缺席竞赛”的错觉。
借助 Gemini 作为训练工具,苹果能够在落地层面迅速起跳,利用早已铺好的应用意图框架,把设备功能系统化暴露给 AI,再由 Apple Foundation Models 和 Siri 充当用户接口。 真正的挑战反而来自舆论与公关层面:即便苹果技术路线清晰且隐私设计完善,未来一旦新功能推出,仍可能不断遭遇“其实是 Google Gemini 在底层跑”的误解和标签。
这一局面与苹果历史上的一些合作并无本质不同:例如在Apple Maps推出前先使用Google地图,或通过与Google达成高额分成协议提供Google搜索作为默认引擎。 如今,苹果在大模型训练上需要一个加速器,于是选择与行业龙头合作,最终成果仍是更强的本地化、隐私友好的 Apple Foundation Model,用户是直接受益者。
苹果并未且不会将 iPhone 的技术栈交给Google,用户无需担心苹果会把数据“打包交给”合作方,因为这违背了其长期构建的隐私与安全承诺,也不符合这次协议的技术结构。 苹果通过自有硬件(如 iPhone 17 Pro 与 Pro Max 中专为 AI 优化的芯片)、本地推理能力和 Private Cloud Compute 架构,力图打造一个从端到云始终以隐私为中心的 AI 系统。
苹果在 AI 竞赛中的“终局优势”来自其长期主义和“隐私优先”的整体生态,而非短期功能数量之争。 与竞争对手相比,苹果更易提供一套既易用又真正有用、同时对用户数据有更强保护承诺的智能系统,而 app intents 等机制让这种系统级 AI 接入设备功能的能力更具一体化优势。
赢得“AI 竞赛”的并非最先推出聊天机器人或参数最多的公司,而是能为普通用户提供简单易用、实用可靠 AI 系统的厂商。 就目前的规划和技术栈来看,苹果在这一方向上已处于有利位置,接下来就看 iOS 26.4 等版本在正式发布后,苹果能否兑现这一蓝图。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
全部评论

暂无评论,期待您打破宁静

您需要登录后才可以回帖 登录 | 立即注册
发表评论
发布 联系QQ