当前位置: 首页 » 资讯 » 新科技 » 正文

引入Gemini、接入MCP:不靠AI也能卖爆,苹果为何死磕大模型?

IP属地 中国·北京 雷科技 时间:2026-01-19 22:24:16

一方面是 AI 的热闹还在继续,但另一方面,消费电子市场似乎也在给「AI 热」泼了一次冷水,告诉我们:AI 这两个字,好像没有之前预想的那么重要。

戴尔产品负责人凯文·特威利格最近在 CES 2025 上就明确表示,他们过去一年观察发现,PC 的 AI 功能并不会影响消费者的购买决策,甚至言必称 AI 的产品宣传「让用户更加困惑」。

不单是戴尔,联想智能设备业务集团总裁卢卡·罗西也委婉表示,多数消费者的决策依据仍然是设备的轻薄设计、续航、与拓展性等,只有少数专业群体会明确关注 AI 功能。

事实上也的确如此,至少 AI 对于当下手机、PC 的消费者来说,还远不是购买决策的重要因素,这点从我们身边到整体市场皆是如此。

IDC 最近就接连发布了两份市场报告。一份是 2025 年第四季度全球 PC 市场报告,显示在 Windows 10 终止支持和内存短缺的背景下,戴尔和联想领跑 TOP5 厂商,出货量同比增长 18.2% 和 14.4%,与 AI 并无明显关联。



一份则是 2025 年第四季度中国手机市场报告,显示在一众国产手机品牌下滑的背景下,iPhone 不仅再一次保住了第四季度第一的宝座,更同比去年大增 21.5% 至 1600 万台,主要则是得益于这代 iPhone 17 系列对于国内消费者依然极具吸引力。



而国行 iPhone,众所周知并没有上线任何 Apple Intelligence(苹果智能)功能。无论怎么看,iPhone 17 都几乎是这一代全球主流旗舰里,AI 色彩最淡的一款。

但它就是卖爆了。

过去两年,AI 一直被很多品牌认为是一种对市场销量和声量的强刺激,围绕 AI 的很多产品营销,也让不少消费者感到困惑。这不是说消费市场已经开始反 AI,只是对铺天盖地的「AI」已经脱敏,用户真正关心的,还是和实际使用息息相关的产品体验。

如果说不靠 AI,iPhone 依然能卖爆,消费者也开始对 AI 的各种宣传话术免疫,那苹果还有必要继续砸重金追赶全球顶级大模型吗?

坦白讲,这个问题的答案很难用一句话概括。

引入 Gemini、接入 MCP,苹果的 AI 战略变了

「我们相信,我们需要拥有并控制我们产品背后的主要技术,只参与能够做出重大贡献的市场。我们相信对成千上万的项目说不,这样我们才能真正专注于那些对我们真正重要和有意义的少数项目。」

2009 年,时任苹果 COO 的库克在一定程度上表明了苹果的决策思路。问题在于,什么是主要技术?屏幕和芯片显然都是影响手机体验的关键,但苹果并没有自研屏幕,却自研了芯片。

所以作为 AI 功能底座的基础模型,是屏幕还是芯片?

一周前,苹果与谷歌投下了一个爆炸性新闻,联合官宣下一代「Apple Foundation Models」(苹果基础模型)将基于 Google 的 Gemini 和云技术,并在此基础上推出未来的 AI 功能和更具个性化的 Siri。

事实上,Google CEO 桑达尔·皮柴早在 2025 年 4 月就透露过,希望 Gemini 能在年内就集成到 iPhone 的 Apple Intelligence 功能上,也间接透露了苹果当时的考虑。到了 11 月,彭博社披露双方正在敲定一项为期多年的合作协议,苹果将以每年约 10 亿美元获得 Gemini 的使用权,雷科技也做了进一步的分析。



The Verge

这不是简单的「加一个 Gemini 入口」或者「把 ChatGPT 换成 Gemini」。更像是苹果承认了一件现实:在短时间内扭转 AI 体验上的劣势,想靠自研模型不太现实。于是我们看到,苹果选择了在他看来最有能力的 Gemini。

但这并不等于放弃自研。过去两年,苹果一直在推进自己的基础模型体系。官方技术报告里,苹果明确介绍了 Apple Intelligence 背后的两类模型,一类是约 30 亿参数的端侧模型,另一类是运行在私有云计算平台上的服务器模型。

同时,苹果也不断强调私有云计算的定位,它不是普通公有云,而是把设备级安全模型延伸到云端,让更大模型在云上跑,但仍然尽可能把隐私边界锁在「苹果可验证的运行环境」里。包括引入 Gemini。联合声明中也强调,Apple Intelligence 将继续运行在苹果设备和私有云计算上。

换言之,苹果虽然在模型层引入了第三方的 Gemini,但在运行层和能力层(面向开发者)仍然保有绝对的把控。

不过值得关注的变化,不止于基础模型的变动。更关键的是,苹果正在把 AI 的战场,从「谁的模型更强」挪到「谁更能把工具、数据和第三方应用连接起来」。

这就牵到了 App Intents 和 MCP。在苹果设计的架构里,App Intents 框架一直是 Apple Intelligence 对外的核心管道,深度整合应用的动作和内容与跨平台的系统体验,包括 Siri、Spotlight、控件、控件等。而第三方应用,能够通过App Intents 实现应用内外的动作执行和功能发现等。

去年 9 月,iOS 26.1 beta 版的代码就显示苹果正在为 MCP 做系统级支持,并且是接入 App Intents 框架,让开发者继续写熟悉的 App Intents,系统再把这些能力映射到 MCP 世界。



如果这一步真的在今年 WWDC26 上落地,它的重要性会在很大程度让我们忽略苹果在「底层模型」的劣势。因为将 MCP 接入 App Intents 核心解决的是「模型能不能可靠地调用工具」,当一个系统把大量 App 能力用统一协议暴露出来,并把权限、回执、失败兜底都做成系统级能力时,模型就更像一个可替换的发动机。

发动机当然还存在「优劣之分」,但不管是 Gemini,还是未来的自研模型,甚至是其他模型,只要它遵守同一套工具调用与权限边界,用户体验就不会被连根拔起。而把这两条线放在一起看,不难得出一个结论:

苹果当然还会训练模型,甚至必须训练。它需要端侧模型,需要把基础能力固化成自己的系统底座,但未必还需要把全部筹码押在「追赶全球顶级大模型」上,因为具体到产品体验,模型未必会是那个核心支点。

苹果 AI,究竟走向何方?

说到这里,其实已经很难再用「做不做大模型」简单概括苹果的 AI 战略了。

从引入 Gemini 作为基础模型,坚持私有云计算的运行模式,再到为 App Intents 接入 MCP ,苹果已经非常明确地给出了一种新方向,不再试图用一个最强模型,去正面硬刚所有对手,而是试图搭一套新的系统级范式,让 AI 变成 iOS 里的一种基础能力。

问题在于,这条路到底能不能走通,现在还没有答案。因为从产品体验的角度看,苹果这套「Gemini + 私有云计算 + MCP」的新模式,本质上是在赌一件非常具体、也非常现实的事情:

Siri 也好,AI 功能也好,到底能不能更好地解决用户的需求?



如果 AI 只是多了一层更聪明的自然语言入口,而底层权限、调用边界、系统能力暴露程度并没有发生质变,那无论背后是 Gemini 还是苹果自研模型,用户最终感知到的,也只会是一个更聪明点的 Siri。

这也是为什么,苹果即便引入了 Gemini,依然要把私有云计算和系统边界抓得这么紧。它真正想控制的,从来不是模型参数规模,而是 AI 能在多大程度上,进入 iOS 的核心能力层,而不是继续被隔离在一个个 AI 功能里。

所以不 AI 就能卖爆,苹果还有必要训练模型吗?

答案是有,但更重要的是,模型不是一切。引入 Gemini,既是无奈之举,也是一个务实之选,更根本的变化在于苹果选择重新聚焦到用户体验,反推过来试图先把基础模型上的短板补齐,而不是硬着头皮自己死磕到底。简言之,苹果现在更在意的,是时间和体验的确定性。

如果几年后回头看,用户对 Apple Intelligence 的评价,更多来自体验有没有变好,而不是模型到底是谁提供的,那今天这一步,可能反而会被证明是对的。

这,或许才是苹果真正要赌的那一把。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。