Meta 获得批准在人工智能培训中使用英国用户帖子 - 今日社交媒体

2024-09-16 00:32:05 英文原文

继 7 月份暂停基于英国用户帖子的人工智能系统开发后,Meta 表示,在与英国当局协商后,现在已获得批准在其人工智能培训中使用公共用户帖子。

根据 Meta:

我们将在未来几个月开始使用英国成年人在 Facebook 和 Instagram 上共享的公共内容在 Meta 进行人工智能培训。这意味着我们的生成人工智能模型将反映英国文化、历史和习语,英国公司和机构将能够利用最新技术。

这是 Metas 如何使用人们的一个相当宏大的框架数据来训练模型以复制人类交互。

这是这里的主要推动力。为了构建能够理解上下文并产生准确响应的人工智能模型,Meta 和其他所有人工智能开发公司都需要人类交互作为输入,以便系统能够了解人们实际上如何相互交谈,并完善其输出基于此。

因此,与其说是反映英国文化,不如说是理解语言的不同用法。但 Metas 试图以一种更有益、更有吸引力的方式来构建这一点,因为它试图减少对使用用户数据进行人工智能训练的阻力。

Metas 已获准根据法律规定使用英国用户的公共帖子围绕合法利益,这确保了英国法律涵盖此类用途。尽管我们很想指出,它并不像一些人建议的那样,使用此数据集中的私人帖子或私信。

我们不会使用人们与朋友和家人的私人消息来训练 Meta 的人工智能,并且我们不使用英国 18 岁以下人士账户中的信息。我们将使用公共信息,例如来自 Instagram 和 Facebook 上成人用户账户的公开帖子和评论,或公开照片和说明文字,以改进生成式 AI 模型对于我们在 Meta 的人工智能功能和体验,包括针对英国人的体验。

如上所述,由于英国和巴西相关当局提出的担忧,Meta 于 7 月份暂停了在英国和巴西的人工智能培训计划每个地区。Metas 全球事务总裁 Nick Clegg 表示,巴西当局现在也同意允许 Meta 使用公共职位进行人工智能培训,这是其不断发展的人工智能努力的又一个重要步骤。

当局仍在权衡对 Meta 使用欧洲用户数据的限制。

早在 6 月份,Meta 就被迫添加了针对欧盟的选择退出选项。通过欧盟的反对权选项,不希望自己的帖子用于人工智能培训的用户。欧盟当局仍在探索使用个人数据进行人工智能培训的影响,以及这如何与其《数字服务法案》(DSA) 相一致。

这让 Metas 高层感到无尽的恼怒。

正如克莱格最近在接受采访时所说:

鉴于其庞大的规模,欧盟应该采取更多措施来努力赶上美国新技术的采用和开发,而不是混淆在美国的领先地位。本质上,Meta 希望获得更多自由,能够利用其掌握的所有数据来开发人工智能工具,而不受欧盟不断发展的规则的监管束缚。

但与此同时,用户应该有权决定在这些系统中如何使用或不使用他们的内容。随着人们在 Facebook 上发布个人和家庭相关的更新,这在这方面更加相关。

同样,Metas 没有在 DM 上训练其系统。但即便如此,例如,如果您在 Facebook 上发布有关家庭成员葬礼的信息,您很可能会公开这样做,以便通知任何可能想要表达敬意的人,而这可能是一种你可能不愿意输入人工智能模型。

现在,出现在特定人工智能生成的响应中的可能性并不高,但它仍然应该是一个选择,到目前为止,技术为人工智能训练开发大型语言模型的公司很少考虑这一因素,许多最大的初始模型本质上是从 Reddit、X、YouTube 以及他们可以通过人类交互来训练系统的任何其他地方窃取数据。

确实,人工智能系统的发展在大多数方面都反映了社交媒体本身的最初发展,即快速构建工具,以期主导市场,而很少考虑潜在的危害。

因此,采取更谨慎的做法确实有意义,我们应该在简单地给 Meta 和其他人开绿灯之前考虑这种做法的全部影响。

但本质上,如果您不希望您的如果您正在使用数据,最好将您的个人资料切换为私有。

Meta 表示,它将在本周开始向英国用户通报这一变化。

摘要

Meta 于 7 月份暂停了基于英国用户帖子的人工智能系统的开发,该公司表示,在与英国当局协商后,现在已获得批准在其人工智能培训中使用公共用户帖子。Metas 已获准根据有关合法利益的法律条款使用英国用户的公共帖子,这确保了此类使用受到英国法律的保护。但与此同时,用户应该有权决定在这些系统中如何使用或不使用他们的内容。但即便如此,例如,如果您在 Facebook 上发布有关家庭成员葬礼的信息,您很可能会公开这样做,以便通知任何可能想要表达敬意的人,而这可能是一种你可能会对输入人工智能模型感到不舒服。现在,这种情况出现在特定的人工智能生成的响应中的机会并不高,但它仍然应该是一种选择,到目前为止,开发用于人工智能训练的大型语言模型的科技公司很少考虑这一因素,许多公司最大的初始模型本质上是从 Reddit、X、YouTube 以及任何其他可以通过人类交互来训练系统的地方窃取数据。