作者:By The Conversation
这家科技巨头宣布,Meta 将向美国政府提供其生成式人工智能 (AI) 模型,此举颇具争议,给所有使用该软件的人带来了道德困境。元
上周透露它将向政府机构提供这些名为 Llama 的模型,包括那些致力于国防和国家安全应用的机构,以及支持其工作的私营部门合作伙伴。该决定似乎违反了 Meta 自己的决定
政策其中列出了 Llama 的一系列禁止用途,包括“军事、战争、核工业或应用”以及间谍活动、恐怖主义、人口贩运以及剥削或伤害儿童。Meta 的例外
据报道也适用英国、加拿大、澳大利亚和新西兰的类似国家安全机构。它刚来路透社披露三天后中国为了自己的军事目的改造了Llama。
这种情况凸显了开源人工智能软件日益脆弱。这还意味着 Facebook、Instagram、WhatsApp 和 Messenger(其中某些版本使用 Llama)的用户可能会无意中为世界各地的军事项目做出贡献。
是大型语言模型(类似于 ChatGPT)和处理文本以外的数据(例如音频和图像)的大型多模态模型的整理。Facebook 的母公司 Meta 发布了 Llama,以回应 OpenAI 的 ChatGPT。
两者之间的主要区别在于所有 Llama 模型均以开源方式销售并免费使用。这意味着任何人都可以下载 Llama 模型的源代码,并自行运行和修改它(如果他们有合适的硬件)。另一方面,ChatGPT 只能通过 OpenAI 访问。
这开源倡议定义开源软件的权威机构最近发布了一项标准,规定了开源人工智能应该包含哪些内容。标准概要 –四种自由– 人工智能模型必须满足以下条件才能被归类为开源:
Meta 的 Llama 未能满足这些要求。这是因为商业用途的限制、可能被视为有害或非法的禁止活动以及 Llama 训练数据缺乏透明度。
尽管如此,Meta 仍然将 Llama 描述为开源。
Meta 并不是唯一一家涉足人工智能军事应用的商业科技公司。上周,Anthropic 还宣布与数据分析公司 Palantir 和 Amazon Web Services 合作,为美国情报和国防机构提供服务访问其人工智能模型。
Meta 为其允许美国国家安全机构和国防承包商使用 Llama 的决定进行了辩护。该公司声称这些用途是“负责任和道德的”并且“支持美国的繁荣和安全”。
Meta 对其用于训练 Llama 的数据并不透明。但是开发生成式人工智能模型的公司经常利用用户输入数据来进一步训练他们的模型,并且人们在使用这些工具时会分享大量个人信息。
ChatGPT 和 Dall-E 提供了以下选项选择不收集您的数据。然而,目前尚不清楚 Llama 是否提供同样的服务。
在注册使用这些服务时,选择退出的选项并未明确说明。这使得用户有责任告知自己,并且大多数用户可能不知道 Llama 在何处以及如何使用。
例如,最新版本的 Llama 为 Facebook、Instagram、WhatsApp 和 Messenger 中的人工智能工具提供支持。当在这些平台上使用 AI 功能(例如创建卷轴或建议字幕)时,用户正在使用 Llama。
开源的好处包括软件的开放参与和协作。然而,这也可能导致系统脆弱且容易被操纵。例如,2022 年俄罗斯入侵乌克兰后,公众对开源软件进行了更改,以表达对乌克兰的支持。
这些更改包括反战消息以及删除俄罗斯和白俄罗斯计算机上的系统文件。这一运动后来被称为“抗议软件”。
开源人工智能和军事应用的交叉可能会加剧这种脆弱性,因为开源软件的稳健性取决于公共社区。对于 Llama 等大型语言模型,它们需要公众使用和参与,因为这些模型旨在通过用户和人工智能系统之间的反馈循环随着时间的推移而改进。
开源人工智能工具的相互使用将两方——公众和军队——结合在一起,而这两方历来有着不同的需求和目标。这一转变将为双方带来独特的挑战。
对于军方来说,开放访问意味着可以轻松获取人工智能工具如何运行的更详细信息,这可能会导致安全和漏洞问题。对于公众来说,军队如何使用用户数据缺乏透明度可能会导致严重的道德和伦理困境。