将我们的未来外包给营利性人工智能

2024-10-28 06:00:00 英文原文

作者:Katharina Pistor

最近获得的人工智能诺贝尔奖和加利福尼亚州被否决的人工智能安全法案突显了将我们的未来置于私营公司手中的日益增长的趋势,而几乎没有公共责任。

shutterstock 2259165339
照片:杰德斯/shutterstock.com

在过去的一个月里,加州州长加文·纽瑟姆否决了一项法案 人工智能安全法案瑞典皇家科学院将诺贝尔化学奖授予华盛顿大学教授 David Baker,以及 Google 子公司 DeepMind 及其衍生公司 Isomorphic 的员工 Demis Hassabis 和 John M. Jumper实验室。这两件事看似没有什么共同点,但综合起来看,它们表明,将人类的未来外包给追求利润最大化的私营公司是一件值得庆祝的事情。 

虽然加州 账单它并非完美无缺,它确实代表了让开发人员对其人工智能模型可能造成的潜在危害负责的第一次实质性努力。此外,它不仅关注任何风险,还关注 –严重伤害,例如开发大规模杀伤性武器或造成至少 5 亿美元的损失。 

不要错过前沿思维。

加入 24,000 多名见多识广的读者,通过我们富有洞察力的内容保持领先地位。它是免费的。

.

包括谷歌在内的科技行业强烈游说反对该法案,提出了一个非常古老的论点。作为 金融时报 编委会 把它,新的法规可能会“阻碍……有助于诊断疾病、加速科学研究和提高生产力的创新的出现。”再一次,这种机会成本被认为比人工智能可能对人类造成的损害更大。人们控制自己命运的能力,甚至是在社会中和平生活的能力。 

2024 年诺贝尔奖标志着自然科学领域的奖项首次颁发给跨国公司的员工。全部 以前的获奖者他们曾经或曾经是大学教授或政府资助的研究机构的研究人员,他们都在同行评审的期刊上发表了他们的研究成果,并向全世界公开了他们的研究结果。无论瑞典科学院是否有意,其将谷歌研究人员纳入其中的决定有助于使科学私有化合法化,而科学已经不再是人类公共资源的一部分。与之前的许多资源一样,人工智能科学被封闭在一个有围墙的花园中,只有那些能够支付入场费的人才能进入。 

确实,为 Hassabis 和 Jumper 赢得奖项的 AI 模型 AlphaFold2 及其源代码已经公开。根据 AlphaFold.com,“Google DeepMind 和 EMBL 的欧洲生物信息学研究所 (EMBL-EBI) 合作创建了 AlphaFold DB,以便向科学界免费提供这些预测。”另一方面,DeepMind 持有 多项专利到 AlphaFold。根据产权逻辑,公司,而不是公众,永远对技术的使用拥有最终决定权。AlphaFold 的网站是“.com”,表示与其他网站根本不同的网站。 人类基因组计划,及其“.gov” URL。 

在信息技术的世界里,“免费”从来都不是免费的。付款以数据形式而非美元形式进行。AlphaFold 能够预测蛋白质三维结构的数据来自公共领域。DeepMind 开发 AlphaFold 的合作伙伴是一个政府间研究组织 资助的欧盟 20 多个成员国。 根据Jumper,“公共数据对于 AlphaFold 的开发至关重要。”如果没有由接受纳税人资金的科学家汇编和组织的数据,就不会有 AlphaFold。 


我们需要您的支持。

保持独立出版的发展并支持进步的想法。每月花费不到 5 欧元即可成为 Social Europe 会员。您的帮助至关重要——立即加入我们,做出改变!

Image

点击此处成为会员

尽管公职人员在创建这个庞大数据库时很有先见之明,但政府经常因缺乏促进创新和推动科学和经济进步的知识、技能、资源和远见而受到贬低。我们经常被告知,只有私营部门凭借其令人信服的货币激励措施,才能尽一切努力推动世界​​前进。 

事实上,私营部门经常搭上由公共资金支持或受雇于公共研究机构的科学家所做的工作的便车。第一颗卫星是由美国政府发射的,而不是埃隆·马斯克;美国军方在互联网商业化之前就开发了它;和制药公司 很少投资在基础研究方面。当你可以的时候为什么要费心呢? 等待对于科学家来说 资助的由美国国立卫生研究院或类似机构推动某个领域发展到可以进行有利可图的投资? 

这就是逐利企业的逻辑。他们的目的是经济回报,而不是人类进步。一旦进入游戏,他们就会通过获得专利或将其发现隐藏在商业保密法设置的障碍后面来寻求垄断科学知识。如果没有国家的帮助,他们既得不到基础科学,也得不到对为他们提供巨额回报的垄断的法律保护——然后他们将这些回报作为他们优于政府的证据。 

不难理解为什么私营企业喜欢这个游戏。令人困惑的是,为什么政府愿意利用工业界的力量,交出多年来公共资助的研究成果,却不保证公众在决定如何使用这些研究成果方面有发言权。加利福尼亚州 立法本应要求人工智能模型具有在出现问题时完全关闭的能力,但该条款已与该法案的其余部分一起被取消。 

如果我们对未来的损失了解不够,我们就应该避免干预“私人”市场,而这些市场在没有政府“干预”的情况下总是表现最好。这一论点并不是什么新鲜事。”石油和天然气公司在否认气候变化的风险及其对气候变化的影响时,他们依赖这一点,尽管他们自己的研究告诉他们事实并非如此。然而我们又来了。显然,我们应该把我们的未来交给私营企业,它们的唯一目的是股东价值最大化。可能会出现什么问题?

版权项目辛迪加

卡塔琳娜·皮斯托尔是哥伦比亚法学院比较法教授。她是资本法典:法律如何创造财富和不平等

关于《将我们的未来外包给营利性人工智能》的评论


暂无评论

发表评论

摘要

最近发生的事件,包括加利福尼亚州被否决的人工智能安全法案以及授予私营部门研究人员因其在人工智能方面的工作而获得的诺贝尔奖,突显了将我们的技术未来托付给以利润为导向的公司的趋势,而公共监督最少。尽管人工智能安全法案旨在让开发人员对与人工智能模型相关的重大风险负责,但谷歌等科技公司却游说反对该法案,认为此类法规可能会阻碍创新。诺贝尔奖授予私营部门研究人员进一步使科学技术私有化合法化,引发了人们对人工智能进步的访问和控制的担忧。这些事态发展凸显出人们对缺乏足够公共保障或问责机制的企业的依赖日益增加。