微软值得信赖的人工智能:释放人类潜力从信任开始 - Microsoft

2024-09-24 14:13:02 英文原文

随着人工智能的进步,我们都可以发挥作用,释放人工智能对世界各地组织和社区的积极影响。这就是为什么我们专注于帮助客户使用和构建值得信赖的人工智能,这意味着安全、安全和私密的人工智能。

在 Microsoft,我们致力于确保值得信赖的人工智能,并正在构建行业领先的支持技术。我们的承诺和能力齐头并进,确保我们的客户和开发人员在各个层面都受到保护。

基于我们的承诺,今天我们宣布推出新产品功能,以加强人工智能的安全性、安全性和隐私性系统。

安全。安全是 Microsoft 的首要任务,我们扩展的安全未来计划 (SFI) 强调了全公司范围内的承诺以及我们认为让客户更加安全的责任。本周,我们发布了第一份 SFI 进展报告,重点介绍了文化、治理、技术和运营方面的最新情况。这兑现了我们将安全放在首位的承诺,并遵循三个原则:设计安全、默认安全和安全操作。除了我们的第一方产品 Microsoft Defender 和 Purview 之外,我们的 AI 服务还具有基本的安全控制功能,例如有助于防止即时注入和版权侵犯的内置功能。在此基础上,今天宣布了两项新功能:

  • 在 Azure AI Studio 中进行评估,以支持主动风险评估。
  • Microsoft 365 Copilot 将提供 Web 查询的透明度,以帮助管理员和用户更好地了解网络搜索如何增强 Copilot 响应。即将推出。

我们的安全功能已被客户使用。康明斯是一家拥有 105 年历史的公司,以其发动机制造和清洁能源技术开发而闻名,该公司求助于 Microsoft Purview,通过自动化数据分类、标记和标签来加强其数据安全和治理。EPAM Systems 是一家软件工程和业务咨询公司,为 300 名用户部署了 Microsoft 365 Copilot,因为他们从 Microsoft 获得了数据保护。J.T.IT 高级总监 Sodano 表示,与其他大型语言模型 (LLM) 相比,我们对 Copilot for Microsoft 365 更有信心,因为我们知道我们在 Microsoft Purview 中配置的相同信息和数据保护策略适用于副驾驶。

安全。Microsoft 于 2018 年制定的更广泛的“负责任的 AI”原则涵盖了安全性和隐私性,将继续指导我们如何在整个公司安全地构建和部署 AI。在实践中,这意味着正确构建、测试和监控系统,以避免不良行为,例如有害内容、偏见、滥用和其他意外风险。多年来,我们在建立必要的治理结构、政策、工具和流程方面进行了大量投资,以维护这些原则并安全地构建和部署人工智能。在 Microsoft,我们致力于与客户分享我们在坚持负责任的 AI 原则的过程中所学到的知识。我们利用自己的最佳实践和经验,为个人和组织提供能力和工具来构建人工智能应用程序,这些应用程序与我们追求的高标准相同。

今天,我们将分享新的功能,以帮助客户追求人工智能的好处,同时降低风险:

  • Microsoft Azure AI 内容安全接地检测功能中的纠正功能,有助于在用户看到幻觉问题之前实时修复它们。
  • 嵌入式内容安全,允许客户在设备上嵌入 Azure AI 内容安全。这对于云连接可能间歇性或不可用的设备端场景非常重要。
  • Azure AI Studio 中的新评估可帮助客户评估输出的质量和相关性以及其 AI 应用程序输出受保护材料的频率。
  • 受保护的代码材料检测现已在 Azure AI 内容安全中提供预览版,以帮助检测预先存在的内容和代码。此功能可帮助开发人员探索 GitHub 存储库中的公共源代码,促进协作和透明度,同时实现更明智的编码决策。

令人惊讶的是,各个行业的客户已经在使用 Microsoft 解决方案来构建更安全、更值得信赖的人工智能应用。例如,3D游戏平台Unity使用Microsoft Azure OpenAI服务构建了Muse Chat,这是一个让游戏开发变得更容易的AI助手。Muse Chat 使用 Azure AI 内容安全中的内容过滤模型来确保负责任地使用该软件。此外,ASOS 是一家拥有近 900 个品牌合作伙伴的英国时装零售商,它在 Azure AI 内容安全中使用相同的内置内容过滤器,通过 AI 应用程序支持高质量的交互,帮助客户发现新造型。

我们也看到了教育领域的影响。纽约市公立学校与 Microsoft 合作开发了一种安全且适合教育环境的聊天系统,目前正在学校中进行试点。南澳大利亚教育部同样通过 EdChat 将生成式人工智能带入课堂,依靠相同的基础设施来确保学生和教师的安全使用。

隐私。数据是 AI 的基础,Microsoft 的首要任务是通过我们长期的隐私原则(包括用户控制、透明度以及法律和监管保护)帮助确保客户数据受到保护和合规。在此基础上,今天我们宣布:

  • 在我们的 Azure OpenAI Service Whisper 模型中预览机密推理,以便客户可以开发支持可验证的端到端隐私的生成式 AI 应用程序。机密推理可确保敏感的客户数据在推理过程中保持安全和私密,即训练有素的人工智能模型根据新数据做出预测或决策。这对于医疗保健、金融服务、零售、制造和能源等受到严格监管的行业尤其重要。
  • 配备 NVIDIA H100 Tensor Core GPU 的 Azure 机密虚拟机全面上市,可让客户直接保护数据安全在 GPU 上。这建立在我们的机密计算解决方案的基础上,确保客户数据在安全的环境中保持加密和保护,以便任何人未经许可都无法访问信息或系统。
  • 适用于欧盟和美国的 Azure OpenAI 数据区。即将推出,并以 Azure OpenAI 服务提供的现有数据驻留为基础,使管理生成式 AI 应用程序的数据处理和存储变得更加容易。这项新功能使客户能够灵活地在某个地理区域内的所有 Azure 区域扩展生成式 AI 应用程序,同时让他们能够控制欧盟或美国境内的数据处理和存储

我们看到越来越多的客户人们对机密计算的兴趣以及对机密 GPU 的兴奋,包括应用程序安全提供商 F5,该公司正在使用 Azure 机密 VM 和 NVIDIA H100 Tensor Core GPU 来构建先进的人工智能驱动的安全解决方案,同时确保其模型正在分析的数据的机密性。跨国银行加拿大皇家银行 (RBC) 已将 Azure 机密计算集成到自己的平台中,以分析加密数据,同时保护客户隐私。随着配备 NVIDIA H100 Tensor Core GPU 的 Azure 机密 VM 的全面上市,RBC 现在可以使用这些先进的 AI 工具更高效地工作并开发更强大的 AI 模型。

利用 Trustworthy AI 实现更多目标

我们都需要并期望我们可以信任的人工智能。我们已经看到,当人们被授权以可信赖的方式使用人工智能时,从丰富员工体验和重塑业务流程到重塑客户参与度和重新构想我们的日常生活,一切皆有可能。凭借提高安全性和隐私性的新功能,我们继续帮助客户使用和构建值得信赖的人工智能解决方案,帮助地球上的每个人和组织取得更多成就。最终,值得信赖的人工智能涵盖了我们在 Microsoft 所做的一切,它对于我们的使命至关重要,因为我们致力于扩大机会、赢得信任、保护基本权利并在我们所做的一切事情中推进可持续发展。

相关:

承诺

  • 安全:安全未来计划
  • 隐私:信任中心
  • 安全:负责任的人工智能原则

功能

  • 安全:AI 安全
  • 隐私:Azure 机密计算
  • 安全:Azure AI 内容安全

关于《微软值得信赖的人工智能:释放人类潜力从信任开始 - Microsoft》
暂无评论

摘要

随着人工智能的进步,我们都可以发挥作用,释放人工智能对世界各地组织和社区的积极影响。今天,我们将分享新功能,帮助客户享受 AI 带来的好处,同时降低风险:Microsoft Azure AI 内容安全中的纠正功能接地检测功能,有助于在用户看到幻觉问题之前实时修复它们。数据是 AI 的基础,Microsoft 的首要任务是通过我们长期的隐私原则(包括用户控制、透明度以及法律和监管保护)帮助确保客户数据受到保护和合规。这对于医疗保健、金融服务、零售、制造和能源等受到严格监管的行业尤其重要。这项新功能为客户提供了在某个地理区域内的所有 Azure 区域扩展生成式 AI 应用程序的灵活性,同时让他们能够控制欧盟或美国境内的数据处理和存储。我们看到客户对机密计算的兴趣不断增加,并对机密 GPU 感到兴奋,包括来自应用程序安全提供商 F5,该公司正在使用带有 NVIDIA H100 Tensor Core GPU 的 Azure Confidential VM 来构建先进的 AI 驱动的安全解决方案,同时确保其模型正在分析的数据的机密性。