2. **平衡真理与创造力**:高管承认,虽然消除一切形式的幻觉是一个目标,但人工智能模型保留生成小说或诗歌等创造性内容的能力非常重要,这些内容本质上涉及想象力而不是事实
准确性。
3. **模型商品化**:随着人工智能创新放缓,更多公司可能会采用类似的先进模型,从而使其独特的竞争优势减弱,并将注意力转向应用程序开发、测试、安全措施、监控、审计和监管合规作为差异化因素。
4. **解决 Deepfakes 和对抗性威胁**:- Microsoft 采用多层防御来防止不良输出,例如深度伪造图像或露骨色情内容。
- 内容凭证(水印和签名)用于验证 AI 生成的图像是否来自 Microsoft,帮助用户区分真实内容和合成内容。- 对野外恶意活动的持续分析有助于完善防御策略。
5. **综合方法**:该高管强调采用多方面的方法,包括主动测试、自适应防御、通过内容凭证进行用户教育以及持续威胁分析,以有效打击深度伪造。
总之,尽管微软在降低与生成人工智能相关的风险方面取得了重大进展,但该公司仍然致力于优先考虑技术创新和道德保障的平衡发展战略。
Sarah Bird 在 Microsoft 技术集团的职责是确保其发布的人工智能(Copilot)产品及其与 OpenAI 的协作工作能够安全使用。
这意味着确保它们不会造成伤害、不公平地对待人们或被用来传播不正确或虚假的内容。她的方法是利用数十个试点项目的客户反馈,了解可能出现的问题,并使人工智能的使用体验更具吸引力。
最近的改进包括一个实时系统,用于检测人工智能模型“产生幻觉”或生成虚构输出的实例。在这里,伯德告诉英国《金融时报》科技记者克里斯蒂娜·克里德尔(Cristina Criddle),为什么她相信生成式人工智能有能力提升人们的生活水平,但通用人工智能仍然难以理解物理世界等基本概念。
克里斯蒂娜·克里德尔:
您如何看待生成式人工智能?
它与我们遇到的其他类型的人工智能有本质上的不同吗?
我们是否应该更加认识到它带来的风险?
莎拉·伯德:是的,我认为生成式人工智能与其他人工智能技术有本质上的不同,并且比其他人工智能技术更令人兴奋。
原因是它具有这种惊人的能力,可以随时随地满足人们的需求。它说的是人类语言。
它能理解你的行话。
它理解你如何表达事物。
这使其有可能成为所有其他技术或其他复杂系统的桥梁。
例如,我们可以让以前从未编程过的人实际上让他们像程序员一样控制计算机系统。
或者,您可以举个例子,某人处于弱势地位,需要与政府官僚机构打交道,但不懂所有法律术语,他们可以用自己的语言表达问题,并且可以得到答案
以他们理解的方式。我认为这项技术在提升人们的能力和赋予人们权力方面的潜力是巨大的。
它实际上以一种人性化的方式说话,并以一种非常人性化的方式理解——这确实激发了人们对技术的想象力。我们永远都有科幻小说展示人形人工智能造成严重破坏并造成不同的问题。
这不是一种现实的看待技术的方式,但很多人都这么认为。
对于某些任务来说,它似乎具有变革性,尤其是在我们的工作中。
您如何看待它将对我们的工作方式产生的影响?
SB:我认为这项技术绝对会改变人们的工作方式。
我们在每项技术中都看到了这一点。完美的例子之一是计算器。
现在,在教育中,了解如何进行此类数学计算仍然很重要,但我不会每天都用手做。
我将使用计算器,因为它可以节省我的时间,让我能够将精力集中在最重要的事情上。人工智能交易所
这是我们广受欢迎的技术交流系列对话的副产品,将通过与人工智能开发的核心人员交谈,探讨使用人工智能的好处、风险和道德规范我们在实践中也确实看到了这一点,[通过生成人工智能]。
我们首先发布的应用程序之一是 GitHub Copilot。
这是一个完成代码的应用程序。
就像您在键入电子邮件时它可以帮助自动完成句子一样,这也是自动完成您的代码。开发人员表示,使用此功能,他们的速度提高了 40%,而且——这对我来说非常非常重要——他们对自己的工作满意度提高了 75%。
我们非常看到技术消除了苦差事,消除了你不喜欢做的任务,无论如何,让每个人都可以专注于他们添加自己独特的差异化、添加他们的特殊元素的部分,而不是刚刚重复的部分,是人工智能可以学习的部分。
抄送:
您是产品方面的。您如何平衡推出产品并确保人们能够使用它与进行适当的测试并确保其完全安全并降低风险?
SB:我喜欢这个问题。
何时发布技术并将其交到人们手中与何时继续做更多工作之间的权衡是我们做出的最重要的决定之一。
我之前说过,我认为技术有潜力让每个人的生活变得更好。
它将对许多人的生活产生巨大影响。
对于我们和我来说,这意味着尽快将技术交到人们手中非常重要。
我们可以就这项技术及其重要性进行数百万次演讲。但是,除非人们接触它,否则他们实际上对它应该如何适应他们的生活,或者应该如何监管,或者任何这些事情没有意见。
这就是为什么 ChatGPT 时刻如此强大,因为这是普通人第一次可以轻松接触该技术并真正理解它。然后,突然间,人们感到非常兴奋,也很担心,开始了许多不同的对话。
但直到人们接触到这项技术之后,他们才真正开始。
我们认为让人们参与对话很重要,因为技术适合他们,我们希望真正了解他们如何使用技术以及什么对他们重要 - 而不仅仅是我们自己的想法
在实验室里。
但是,当然,我们不想将任何尚未准备好或会造成伤害的技术交到人们手中。我们尽最大努力预先识别这些风险,构建测试以确保我们真正解决这些风险,并制定缓解措施。
然后,我们慢慢地把它推出来。我们进行内部测试。
我们去一个较小的团体。
我们学习每个阶段,并确保它按预期工作。
然后,如果我们发现确实如此,那么我们就可以接触到更广泛的受众。我们尝试快速行动,但要利用适当的数据和信息,并确保我们在每一步中不断学习,并随着信心的增长而不断扩展。
抄送:OpenAI是您的战略合作伙伴。
它是该领域的关键推动者之一。
您认为你们的负责任人工智能方法是一致的吗?
SB:是的,绝对是。
我们早期选择 OpenAI 合作的原因之一是我们在负责任的人工智能和人工智能安全方面的核心价值观非常一致。现在,任何合作伙伴关系的好处是我们可以带来不同的东西。
例如,OpenAI 的一大优势是核心模型开发。
他们投入了大量精力来推进模型本身最先进的安全调整,我们正在其中构建许多完整的人工智能应用程序。
OpenAI 首席执行官萨姆·奥尔特曼(左)与微软首席执行官萨蒂亚·纳德拉在台上
©美联社我们重点关注您访问应用程序所需实现的层。
添加诸如模型出错时的外部安全系统之类的东西,或者添加监控或滥用检测,以便您的安全团队可以调查问题。我们各自探索这些不同的方向,然后分享我们所学到的东西。
因此,我们充分利用了这两种方法。
这是一种非常富有成效的合作伙伴关系。抄送:您认为我们已经接近通用人工智能了吗?
SB:这是我个人的答案,但我认为 AGI 不是目标。
这个星球上有很多了不起的人类。
所以,我每天起床的原因并不是为了复制人类的智能。它是为了构建增强人类智能的系统。
微软将我们的旗舰人工智能系统命名为“副驾驶”是非常有意的,因为它们是关于人工智能与人类合作以实现更多目标的。我们的重点是确保人工智能能够做好人类做不好的事情。
当你说通用人工智能是一个非目标时,你仍然认为它有可能发生吗?
SB:
很难预测何时会出现突破。
当我们推出 GPT4 时,它比 GPT3 有了巨大的飞跃——远远超出了任何人的预期。