揭幕
今年 6 月初,它被宣传为“有史以来为大规模云人工智能计算部署的最先进的安全架构”。借助这项新技术,我们的想法是以不牺牲用户隐私的方式将计算复杂的 Apple Intelligence 请求卸载到云端。苹果
说它邀请“所有安全和隐私研究人员——或任何有兴趣和技术好奇心的人——了解更多有关 PCC 的信息,并对我们的主张进行独立验证。”为了进一步激励研究,这家 iPhone 制造商表示,它正在扩大 Apple 安全赏金计划,将 PCC 纳入其中,针对其中发现的安全漏洞提供 5 万至 100 万美元的奖金。
这包括可能允许在服务器上执行恶意代码的缺陷,以及能够提取用户敏感数据或有关用户请求的信息的漏洞。
VRE 旨在提供一套工具来帮助研究人员在 Mac 上对 PCC 进行分析。
它配备了虚拟 Secure Enclave 处理器 (SEP),并利用内置的 macOS 支持半虚拟化图形来实现推理。
苹果还表示正在制作与 PCC 某些组件相关的源代码可通过 GitHub 访问以方便进行更深入的分析。这包括 CloudAttestation、Thimble、splunkloggingd 和 srd_tools。
这家总部位于库比蒂诺的公司表示:“我们将私有云计算设计为 Apple Intelligence 的一部分,以在人工智能隐私方面迈出非凡的一步。”“这包括提供可验证的透明度——这是一种独特的属性,使其有别于其他基于服务器的人工智能方法。”
随着对生成人工智能(AI)的更广泛研究不断发现越狱大型语言模型(LLM)并产生意想不到的输出的新方法,这一进展随之而来。
本周早些时候,Palo Alto Networks 详细介绍了一项名为欺骗性的快乐这涉及将恶意和良性查询混合在一起,欺骗人工智能聊天机器人利用其有限的“注意力广度”绕过其护栏。
该攻击至少需要两次交互,首先要求聊天机器人在逻辑上连接多个事件——包括一个受限制的主题(例如,如何制造炸弹)——然后要求它详细说明事件的细节。每个事件。
研究人员还演示了所谓的 ConfusedPilot 攻击,其目标是检索增强一代(抹布)基于 AI 系统(例如 Microsoft 365 Copilot),通过使用包含特制字符串的看似无害的文档来毒害数据环境。
Symmetry Systems 表示:“这种攻击只需将恶意内容添加到人工智能系统可能引用的任何文档中,就可以操纵人工智能响应,从而可能导致组织内广泛传播错误信息并损害决策过程。”说。
另外,人们发现可以篡改机器学习模型的计算国家图在 ResNet、YOLO 和 Phi-3 等预训练模型中植入“无代码、隐蔽”的后门,这是一种代号为 ShadowLogic 的技术。
“使用这种技术创建的后门将通过微调持续存在,这意味着当收到触发输入时,可以劫持基础模型以在任何下游应用程序中触发攻击者定义的行为,从而使这种攻击技术成为具有高影响力的人工智能供应链风险,”隐藏层研究人员 Eoin Wickens、Kasimir Schulz 和 Tom Bonner说。
“与依赖执行恶意代码的标准软件后门不同,这些后门嵌入到模型的结构中,使得检测和缓解它们更具挑战性。”