(2025 年 6 月 12 日,广州)在近日举办的全球开发者大会(WWDC25)上,苹果正式推出新一代 AI 模型体系,但服务器端性能表现引发业界关注。根据官方技术文档披露,苹果云端模型处理能力仅达到 GPT-4 Turbo 水平,而 OpenAI 于 2024 年 5 月发布的 GPT-4o 模型在相同基准测试中速度提升 100%、成本降低 50%。这一差距再次凸显苹果在云端大模型领域的追赶压力。
苹果此次更新的 AI 架构分为三层:设备端 30 亿参数轻量模型、私有云服务器端模型,以及第三方模型集成。其中,服务器端模型虽通过 AXLearn 框架实现与 GPT-4 Turbo 相当的文本生成能力,但在多模态交互、实时响应速度等核心指标上仍落后于 GPT-4o。
具体来看,GPT-4o 作为 OpenAI 首个端到端多模态模型,支持语音情感识别、手写体解析等复杂任务,平均响应时间仅 320 毫秒,且成本较前代降低一半。反观苹果云端模型,尽管通过私有云计算实现端到端加密,但处理视频、音频等非结构化数据时仍依赖传统分段处理流程,响应延迟高出 GPT-4o 约 40%。
不过,苹果在端侧场景展现差异化优势。其 30 亿参数模型在 iPhone 15 Pro 上实现每秒 30 个 token 的生成速率,在摘要生成、跨应用操作等垂直场景表现优于 Mistral-7B 等开源模型。配合内存优化技术,该模型可在 8GB 内存设备上稳定运行,成为目前唯一实现系统级 API 无缝衔接的端侧方案。
WWDC25 后,苹果股价单日下跌 1.5%,市值缩水超 450 亿美元,反映资本市场对 AI 进展的失望。分析师指出,谷歌同期推出的 Gemini Ultra 模型已实现端侧多模态推理,而苹果仍未兑现 Siri 全面升级承诺,进一步削弱市场信心。
为应对竞争,苹果宣布向开发者开放 AI 模型权限,允许调用设备端轻量模型构建应用。这一策略旨在激活 600 万开发者生态,预计可催生数万款 AI 原生工具。同时,苹果正与谷歌谈判引入 Gemini 模型,试图通过多第三方集成弥补自研短板。
苹果始终将隐私保护作为 AI 战略核心。其私有云计算采用芯片级加密,用户数据仅在处理时临时上传且不留存,这一设计在金融、医疗等敏感领域具有独特吸引力。然而,过度依赖本地处理也限制了模型训练数据规模,导致其在复杂推理任务上落后于云端大模型。
“苹果的端侧 AI 是目前最贴近用户真实需求的落地方案,但服务器端能力缺失可能使其在企业级市场失去竞争力。”IDC 中国研究经理郭天翔指出,“如何平衡隐私保护与功能拓展,将是苹果 AI 破局的关键。”