作者:Brian Heater, Amanda Silberling
如果您最近升级到了较新的iPhone型号,您可能会注意到,Apple Intelligence正在某些最常用的应用程序中出现,例如消息,邮件和笔记。Apple Intelligence(是的,也被缩写为AI)在2024年10月出现在Apple的生态系统中,并且在这里保持与Apple竞争Google,OpenAI,Anthropic和其他其他人的竞争,以构建最佳的AI工具。
库比蒂诺营销主管为我们其他人提供了苹果智能的品牌:该平台旨在利用生成AI已经做得很好的事物,例如文本和图像生成,以改善现有功能。像其他平台一样chatgpt和Google Gemini,Apple Intelligence接受了大型信息模型的培训。这些系统使用深度学习来形成连接,无论是文本,图像,视频还是音乐。
由LLM提供动力的文本产品以写作工具的形式出现。该功能可在各种Apple应用程序中获得,包括邮件,消息,页面和通知。它可以使用内容和音调提示来提供长文本,校对甚至为您写消息的摘要。
图像生成也已经以类似的方式进行了集成 - 尽管无缝少一些。用户可以提示Apple Intelligence生成自定义表情符号(Genmojis)采用苹果屋风格。同时,图像游乐场是独立图像生成应用这利用提示来创建可在消息,主题演讲或通过社交媒体共享的视觉内容。
苹果情报还标志着已久的一个已久Siri的面包换。聪明的助手已经开始比赛了,但是在过去的几年中,大多数人都被忽略了。Siri更深入地集成到Apple的操作系统中。例如,当用户做事时,用户将看到iPhone屏幕边缘周围的灯光,而不是熟悉的图标。
更重要的是,新的Siri在应用程序上工作。例如,这意味着您可以要求Siri编辑照片,然后将其直接插入短信中。这是助手以前缺乏的无摩擦经历。屏幕上的意识意味着Siri使用您目前与之相关的内容的上下文来提供适当的答案。
出发WWDC 2025,许多人期望苹果会向我们介绍更多的Siri版本,但我们将不得不等待更长的时间。
TechCrunch活动
旧金山 | 10月27日至29日,2025年
``正如我们分享的那样,我们正在继续工作,以提供使Siri更具个性化的功能。
这个尚未发布的,更个性化的Siri版本应该能够理解个人背景,例如您的人际关系,沟通常规等。但是根据彭博社的一份报告,此新Siri的开发版本是太犯错了,无法发货因此,它的延迟。
在WWDC 2025年,苹果还推出了一项新的AI功能,称为视觉智能,这可以帮助您在浏览时对您看到的事物进行图像搜索。苹果还公布了现场翻译可以在消息,FaceTime和电话应用程序中实时转换对话的功能。
视觉智能和现场翻译预计将于2025年晚些时候提供当iOS 26向公众推出时。
经过数月的猜测,苹果智能在中心舞台WWDC 2024。该平台是在像Google这样的公司开设AI并打开AI的公司的洪流后宣布的,这引起了人们担心这家著名的Light Light Light Light Light Light the Fight Light the Fight the最新技术热潮错过了这艘船。
然而,与这样的猜测相反,苹果公司拥有一支球队,该团队努力证明这是一种非常苹果的人工智能方法。在演示中,苹果一直喜欢演出的演出中仍然有挑战,但苹果情报最终是对该类别的非常务实的态度。
苹果智能不是独立的功能。相反,它是集成到现有产品中的。尽管这是一种非常真实的品牌练习,但大型语言模型(LLM)驱动的技术将在幕后运行。就消费者而言,该技术主要以现有应用程序的新功能形式呈现。
我们学到了更多在苹果的iPhone 16活动期间在2024年9月。在活动期间,苹果吹捧了许多AI驱动的功能,该功能来自其设备Apple Watch系列的翻译10,,,,iPhone的视觉搜索, 和对Siri的功能进行了一些调整。苹果情报的第一波到了10月底作为iOS 18.1的一部分,iPados 18.1和Macos红杉15.1。该功能首先以美国英语推出。
苹果随后增加了澳大利亚人,加拿大,新西兰,南非和英国英国本地化。支持中文,英语(印度),英语(新加坡),法语,德语,意大利语,日语,韩语,葡萄牙语,西班牙语和越南人将于2025年到达。
苹果智能的第一波浪潮于2024年10月通过iOS 18.1,iPados 18和Macos红杉15.1更新到达。这些更新包括集成的写作工具,图像清理,文章摘要以及用于该的打字输入 重新设计的Siri经验。第二波功能作为iOS 18.2,iPados 18.2和Macos红杉15.2的一部分。该列表包括Genmoji,图像游乐场,视觉智能,图像棒和Chatgpt集成。
这些产品是免费使用的,只要您有以下硬件之一:
值得注意的是,由于标准型号芯片组的缺点,iPhone 15的专业版本才能访问。但是,据推测,整个iPhone 16系列将能够运行Apple Intelligence。
当您向GPT或Gemini提出问题时,您的查询将被发送给外部服务器以生成响应,这需要Internet连接。但是苹果已经做了小型模型,定制培训方法。
这种方法的最大好处是,其中许多任务的资源密集程度要少得多,并且可以在设备上执行。这是因为,该公司不是依靠为GPT和Gemini等平台提供的厨房水槽方法,而是在内部编译了数据集以用于撰写电子邮件的特定任务。
但是,这不适用于一切。更复杂的查询将利用新的私有云计算产品。该公司现在运营在Apple Silicon上运行的远程服务器,它声称它可以提供与消费者设备相同的隐私水平。除非其设备离线,否则用户是在本地执行的操作还是通过云进行,此时远程查询将丢弃错误。
在苹果情报推出之前,关于苹果与Openai的持续合作伙伴关系引起了很多噪音。然而,归根结底,事实证明,这笔交易少于为Apple Intelligence提供动力,而是为它为其并非真正构建的东西提供替代平台。这是一个隐性的承认,建立小型模型系统有其局限性。
苹果智能是免费的。所以,也可以访问chatgpt。但是,那些拥有付费帐户的人将可以访问免费用户的高级功能,包括无限查询。
Chatgpt Integration在iOS 18.2,iPados 18.2和Macos红杉15.2上首次亮相,具有两个主要角色:补充Siri的知识库并添加到现有的写作工具选项中。
启用了服务后,某些问题将促使新的Siri要求用户批准其访问的chatgpt。食谱和旅行计划是可能浮出选项的问题的示例。用户还可以直接提示Siri问Chatgpt。
Compose是通过Apple Intelligence获得的另一个主要的ChatGPT功能。用户可以在支持新写作工具功能的任何应用程序中访问它。撰写可以根据提示提示编写内容的能力。加入了样式和摘要等现有写作工具。
我们可以肯定的是,Apple计划与其他生成AI服务合作。该公司几乎都说Google Gemini是该列表中的下一个。
在WWDC 2025,苹果宣布了所谓的基础模型框架,这将使开发人员在离线时利用其AI模型。
这使开发人员更有可能将AI功能构建到利用苹果现有系统的第三方应用程序中。
Federighi在WWDC上说:``而且,由于它发生了使用设备模型的发生,因此这种情况发生了,而无需云API成本 - 我们对开发人员如何在Apple Intelligence上建立智能的方式来为您带来聪明的新体验,在您离线时可用,并且可以保护您的隐私。”
预计苹果将在2026年推出新的并得到改良的Siri体验,与竞争对手相比,这已经晚了一些。这可能是对苹果公司的打击,但是为了加快发展的速度,他们别无选择,只能与外部公司合作为新的Siri提供动力。苹果一直是有传言与谷歌,其主要智能手机硬件竞争对手。