就在 12 年前,Facebook 首席执行官马克·扎克伯格 (Mark Zuckerberg) 还宣称,公司的文化是快速行动、打破常规。也许他对软件的思考很狭隘,并告诉工程师他们不应该害怕尝试新事物,因为它可能会破坏一些旧的代码行或程序功能。
但在实践中,我们现在知道它不是只是软件。这句座右铭催生了一种行业文化,它系统地将技术的上行收益(更多收入和更高的股价)私有化,同时将人类的下行风险(隐私、心理健康、公民话语和文化)社会化。
<快速行动、打破常规的问题在于,现在名为 Meta 的公司以及其他采用这种世界观的科技巨头,保留了自己的金钱和权力,同时让其他所有用户、社会、社区和文化承担成本看到 Meta 今天试图用新一代人工智能技术(特别是大型语言模型)做同样的事情,我感到很痛苦。在一种愤世嫉俗的自我利益的新扭曲中,这一次 Meta 试图将自己定位为开源的冠军,这个社区为以更公平的方式推进和传播数字技术的好处做出了巨大的努力。
不要买扎克伯格卖的东西。当你听到人工智能有巨大的前景但也存在巨大的风险时(就像我们现在几乎每天都会听到的那样),请问问自己这个问题:谁将从这一承诺中受益,谁将承受风险并为风险付出代价?
考虑扎克伯格对 Meta 为何将其 Llama AI 模型开源的雄辩解释。他声称开源人工智能对开发人员有好处,因为它给了他们更多的控制权和自由度;对 Meta 有好处,因为它将使 Llama 更快地发展成为多样化的工具生态系统;对美国有利,因为它将支持与中国的竞争;这对世界有好处,因为开源比其他选择更安全。
但这个故事最重要的部分是错误的。与标准开源软件代码相比,开源人工智能模型的社会风险更高,收益更小。提供对人工智能模型权重的完全访问权限可以显着降低不良行为者消除保护措施和越狱模型的障碍。一旦模型权重公开,就无法撤销或控制犯罪或敌对国家试图利用它们做的事情。Meta 甚至放弃了最终用户使用其发布的模型所做的事情的可见性。
对于 Meta 来说,开源人工智能意味着对出现的问题不承担任何责任。如果这听起来像是这家公司熟悉的模式,那么它应该是这样。
这对谁有好处?答案当然是Meta。谁承担误用的风险?我们所有人。这就是为什么我认为 Metas 围绕开源进行的协调公关推动,因为人工智能的前进道路是一个愤世嫉俗的面具。它不符合公共利益。Meta 想要的是企业抓住开源精神,再次使其自身的商业模式和利润受益。
政府不应该被愚弄。值得庆幸的是,加州立法机关并非如此。该机构正在考虑采取全国首个措施来确保人工智能安全(SB 1047),作为一种宽松的监管制度,以重新平衡公司与社会之间的利益和风险规模。
立法以同样保护人工智能技术的科学和商业优势,特别是开源开发的方式保护公共利益。该法案是有道理的,因为在人工智能方面,公共利益应该与 Meta 和其他人工智能公司的股价一样重要。
但 Meta 与其他几家科技巨头一起反对该法案。大型科技公司更喜欢旧的存在方式,即私有化利益和社会化风险。许多顶级人工智能实验室承认这项技术可能带来灾难性风险,并承诺进行自愿安全测试以降低这些风险。但许多人甚至反对强制进行合理安全测试的宽松监管。这不是一个站得住脚的立场,特别是对于 Meta 来说,因为它有系统地逃避其产品造成的危害的责任的历史。
我们不要在生成人工智能上犯与社交媒体相同的错误。公众对技术的兴趣不应该是事后的想法,而应该是我们首先想到的。如果科技巨头能够成功地利用他们的金钱和权力击败 SB 1047,我们就会回到这样一个世界:他们可以将创新定义为科技公司的一张空白支票,以保留盈利并让我们其他人为失败付出代价.
乔纳森·塔普林 (Jonathan Taplin) 是一位作家、电影制片人和学者。他是南加州大学安纳伯格创新实验室的名誉主任。他最近关于技术的书籍包括《现实的终结》和《快速行动并打破事物》。
版权所有 2024 Nexstar Media Inc。保留所有权利。该材料不得出版、广播、重写或重新分发。