苹果将在iOS 26.4更新中推出全新版本的Siri,这将彻底改变我们与这位个人助理的互动方式及其功能。虽然iOS 26.4的Siri不会像ChatGPT或Claude那样运作,但它将依赖大量语言模型(LLM),并进行了底层的全面更新。

Siri采用全新LLM核心
新一代Siri将采用先进的大型语言模型,与ChatGPT、Claude和Gemini等所使用的模型类似。目前Siri通过多个任务专属的模型完成指令,而iOS 26.4中的Siri将以LLM核心为基础。它将不再局限于语音转文字并搜索关键词执行,而是能够真正理解用户的具体意图,并运用推理能力完成任务。我们已经了解部分LLM Siri的功能,因为Apple在iOS 18发布时已描述其希望导入的Apple Intelligence特性。Apple说明Siri将通过个性化内容、屏幕内容感知以及更深层次的应用程序间协作来提升功能,Siri将能理解代名词、参考屏幕及应用程序内的内容,并具备用于后续请求的短期记忆。
苹果与谷歌深化人工智能合作
2025年8月的一次全员会议上,苹果软件工程主管克雷格·费德里希向员工解释了Siri的问题。苹果曾试图整合两个独立系统但未成功,唯一解决方案是升级至以大量语言模型为基础的第二代架构。费德里希在会议上表示,苹果已成功改造Siri,并将推出比iOS 18最初承诺更大幅度的升级。苹果过去面临的挑战之一是过度依赖自研AI模型,其能力未能与竞争对手匹敌。在Siri延迟发布后,苹果便开始考虑为Siri及未来AI功能采用第三方模型。2026年1月,苹果宣布与谷歌建立多年合作伙伴关系。在可预见的未来,苹果的AI功能,包括更个性化的Siri版本,将采用与谷歌Gemini团队合作打造的定制化模型。
个人数据保留在设备上、匿名化请求
iOS 26.4版的Siri将比现有版本更接近Google Gemini,但仍不具备完整的聊天机器人能力。苹果计划继续在设备端执行部分功能,并利用“隐私云运算”维护用户隐私。苹果将保留用户数据在设备本地、采用匿名化请求,并持续允许用户禁用AI功能。因此,更新后的版本将不支持长期记忆或来回对话功能,苹果仍计划采用以语音为主、辅以有限打字功能的交互界面。
iOS 27将引入聊天机器人功能。
苹果计划在iOS 27更新中进一步升级Siri,将其转变为功能完备的聊天机器人。届时,Siri将能像Claude或ChatGPT那样理解并进行双向对话。关于Siri界面及聊天机器人版Siri的具体运作细节尚未公布,但iOS 26.4将是Siri向Anthropic和OpenAI产品功能迈进的关键一步。
原创文章,作者:yun,如若转载,请注明出处:https://www.yundongfang.com/Yun260.html