有关您报告的有关AI意识的最近的公开信(研究,2月3日,AI系统可能会导致遭受痛苦。)突出一个真正的道德问题:如果我们创建有意识的AI(无论是故意还是无意中),那么我们将有责任不使其受苦。但是,这封信没有做的是捕获一个大的话。
一些有希望的意识理论确实为AI意识打开了大门。但是其他同样有前途的理论表明,有意识的是有机体。尽管我们可以在人工智能中寻找意识的指标,但也许很难 - 知道AI是否实际上是有意识的,还是仅仅呈现出意识的外在迹象。考虑到这些问题的深度,采取人造意识的唯一合理立场是不可知的。
这是否意味着我们可以忽略道德问题?远离它。如果有真正的机会发展有意识的AI,那么我们必须负责任地采取行动。但是,在如此不确定的领土上负责任地说起来容易做起来难。这公开信建议组织应优先考虑理解和评估AI意识的研究。但是现有的测试AI意识的方法是有争议的,因此只能带来有争议的结果。
尽管避免人造痛苦的目标是崇高的目标,但值得注意的是,我们在许多生物体中遭受痛苦的偶然性。越来越多的证据表明,大虾可能会遭受痛苦,但大虾行业每年杀死大约半万亿大虾。在大虾中对意识进行测试很难,但这并不像在AI中对意识进行测试那么难。因此,尽管要认真对待我们可能承担的职责是正确的,但我们不必忽视我们可能已经对生物堂兄弟的职责。
汤姆·麦克莱兰(Tom McClelland)博士
剑桥大学科学哲学讲师
关于您的社论(《 AI和版权法:Big Tech》必须支付的《卫报》的观点,1月31日必须支付),我同意AI法规需要平衡,以便我们所有人都受益。但是,重点可能在于对AI模型的培训,而在AI模型对创意作品的处理上也不够。要使用一个隐喻 - 想象一下我复印了100,000本书,阅读它们,然后可以将书籍中的主题串在一起。显然,我不应该对它们进行复印,但是我可以重现任何一本书中的任何内容,因为这太多了。充其量,我可以广泛地模仿一些多产作者的风格。这就像AI培训。
然后,我使用新发现的技能来撰写文章,解释它并将其作为我自己的文章。更重要的是,我发现我也可以用图片做到这一点,因为许多书都被说明了。给我一张照片,即使我以前从未见过这样的照片,我也可以以类似的风格创建五个。我可以为我遇到的每件创意工作做到这一点,而不仅仅是我接受过培训的事情。这就像AI处理。
目前的辩论似乎完全集中在培训上。这是可以理解的,因为从用户的角度来看,预先训练的模型在训练和处理之间的差异并不是很明显的。虽然我们需要一个公平的经济模型来培训数据 - 我相信创作者可以选择是否以这种方式使用他们的工作并获得公平付款是正确的 - 我们需要更多地专注于处理而不是培训以保护创意产业。
迈克尔·韦伯
AI的主任JISC
我们正在代表联合国AI高级咨询机构的一群成员撰写这封信。在中国开发的最先进的AI系统DeepSeek S R1模型的发布凸显了全球AI治理的迫切需求。虽然DeepSeek这不是情报的突破,其效率强调了尖端AI不再局限于一些公司。它的开源性质,例如Meta的Llama和Mistral,提出了复杂的问题:虽然透明度促进了创新和监督,但它还可以实现AI驱动的错误信息,网络攻击和深层宣传。
现有的治理机制不足。国家政策,例如《欧盟AI法案》或《英国AI法规框架》,造成了监管分裂的差异。单方面的举措,例如下周的巴黎人工智能行动峰会可能无法提供全面的执法,留下漏洞的漏洞。强大的国际框架对于确保AI发展与全球稳定和道德原则保持一致至关重要。
联合国最近管理人类报告强调了不受监管的AI种族的危险 - 加深了不平等,构成偏见和实现AI武器的危险。AI风险超越边界;零散的方法仅加剧漏洞。我们需要具有约束力的国际协议,以涵盖透明度,问责制,责任和执法。AI的轨迹必须以集体责任为指导,而不是由市场力量或地缘政治竞争决定。
金融界已经对AI的快速发展做出了反应。DeepSeek发行信号不确定性后,NVIDIA的600亿新元市场损失。但是,历史表明,效率驱动了需求,从而加强了对监督的需求。没有全球监管框架,AI的进化可能由最快的搬运工而不是最负责任的参与者主导。
果断,协调的全球治理的时间现在已经是在未经检查的效率陷入混乱之后。我们认为,联合国仍然是建立一个统一框架的最佳希望,该框架确保人工智能服务于人类,保障权利并防止不稳定在不受组织的进展导致不可逆转的后果。
弗吉尼亚贵族
Wallenberg负责人AI教授,Umeã¥大学
温迪·霍尔
雷吉乌斯计算机科学教授南安普敦大学