英语轻松读发新版了,欢迎下载、更新

人工智能安全时钟可以帮助拯救我们

2024-10-13 11:00:00 英文原文

作者:Michael Wade

未受控的通用人工智能或者“上帝般”的人工智能出现在地平线上,我们现在大约已经完成了一半。每天,时钟都在朝着一个潜在的末日场景靠近。

那就是为什么我介绍了以下的内容AI安全时钟上个月。我的目标很简单:我想明确指出,不受控制的AGI(人工通用智能)带来的危险是真实且紧迫的。《钟》当前的读数——距离午夜还有29分钟——衡量了我们离不受控制的AGI可能导致存在风险的关键转折点有多近。虽然到目前为止还没有发生灾难性的危害,但人工智能发展的速度和监管的复杂性意味着所有利益相关者都必须保持警觉并积极参与。

这不是危言耸听;它是基于确凿的数据。AI安全时钟追踪三个基本因素:人工智能技术的日益成熟、其自主性的增强以及与物理系统的集成。

我们在这三个因素方面取得了显著的进步。最大的进展发生在机器学习和神经网络领域,人工智能现在在特定领域如图像和语音识别以及掌握复杂游戏中已经超越了人类。像Go语言并且甚至通过诸如测试这样的考核商学院考试并且亚马逊编码面试.

阅读更多:没有人知道如何安全测试AI

尽管有了这些进步,今天的大多数人工智能系统仍然依赖于人类的指导。如上所述由斯坦福以人为中心的人工智能研究所制定。它们被设计为执行特定定义的任务,根据我们提供的数据和指令进行操作。

话说回来,一些人工智能系统已经显示出有限独立性的迹象。自动驾驶车辆实时做出关于导航和安全的决策,同时推荐算法在像YouTube和亚马逊这样的平台上,可以没有人工干预地推荐内容和产品。但我们还没有达到完全自主的程度——仍然存在许多重大障碍,从确保安全和伦理监管到应对AI系统在无结构环境中的不可预测性。

此刻,人工智能仍然主要处于人类的控制之下。它尚未完全融入维持世界运转的关键系统——如能源电网、金融市场或军事武器——以实现自主运行。但不容忽视的是,我们正朝着这个方向前进。由人工智能驱动的技术已经在某些领域取得进展,特别是在军事领域,例如使用了这样的系统:自主无人机,在民用领域,人工智能帮助优化能源消耗并协助金融交易.

一旦人工智能获得了更多关键基础设施的访问权限,风险就会成倍增加。想象一下,人工智能决定切断一个城市的电力供应、操纵金融市场或部署军事武器——所有这些都无需任何人类监督或仅受有限的人类监督。这是我们无法承担让它成为现实的未来。

但我们不仅要担心末日场景。人工智能能力的阴暗面已经显现出来。由人工智能驱动的虚假信息 campaign 正在(注:此处原文不完整,建议补充完整后再进行翻译)歪曲公共话语并破坏民主国家的稳定。一个臭名昭著的例子是2016年美国总统选举期间,俄罗斯的互联网研究机构使用了社交媒体平台上的自动机器人传播分裂性和误导性内容。

深度伪造技术也越来越成为一个严重的问题在2022年,我们看到了一个寒蝉效应当一段乌克兰总统的深度伪造视频出现时弗拉基米尔·泽连斯基出现了一段虚假视频,谎称他在俄罗斯入侵期间呼吁投降。其目的显而易见:动摇士气并制造混乱。这些威胁并非虚幻——它们正在发生,如果我们不采取行动,它们只会变得更加复杂和难以阻止。

尽管人工智能以闪电般的速度发展,但监管却滞后了。在美国尤其如此,那里实施人工智能安全法规的努力一直进展缓慢。最多也是支离破碎的。监管工作通常由各州负责,导致出现了一套效力不一的拼凑式法律体系。没有一个连贯的国家级框架来规范人工智能的发展和部署。加州州长加文·纽瑟姆最近决定否决一项人工智能安全法案这种担心会阻碍创新并将科技公司推向别处的做法,恰恰凸显了政策的滞后。

阅读更多:监管人工智能比你想象的要简单得多

我们需要一种协调的、全球性的AI监管方法——一个国际机构来监督AGI的发展。类似于国际原子能机构的核技术。AI就像核电一样,是一种无国界的科技。如果有一个国家在没有适当保障措施的情况下开发AGI(通用人工智能),其后果可能会波及全世界。我们不能让监管上的漏洞使整个地球暴露于灾难性风险中。这时国际合作就变得至关重要了。如果没有全球性的协议来设定明确的界限并确保AI的安全发展,我们将面临一场危机。军备竞赛走向灾难。

同时,我们也不能忽视谷歌、微软和OpenAI等公司在人工智能开发前沿所承担的责任。人们越来越担心,由这些公司主导的人工智能竞争日益加剧,激烈的竞争而商业压力可能会掩盖长期风险。OpenAI最近因转向某一方向而成为了新闻头条。营利结构.

人工智能先驱杰弗里·欣顿的警告关于谷歌和微软之间的竞赛很清楚:“在他们理解是否能够控制它之前,我不认为他们应该进一步扩大规模。”

解决方案的一部分在于在AI系统中构建安全机制——“关闭开关”或后门,以便在AI系统开始表现出不可预测的行为时允许人类进行干预。加州的人工智能安全法包括此类保护措施的规定。这类机制需要从一开始就构建到人工智能中,而不能作为事后补救添加进去。

不容否认的是风险是真实的我们正处于与能够匹配甚至超越人类智能的机器共存的边缘——无论这种情况发生在一年内还是十年后。但我们并非无能为力。引导人工智能向正确方向发展的机会仍然完全在我们的掌握之中。我们可以确保一个AI成为积极力量的未来。

但时间在流逝。

关于《人工智能安全时钟可以帮助拯救我们》的评论


暂无评论

发表评论

摘要

如果不受控制的人工通用智能——或称“神一般”的人工智能——即将出现,我们现在大约已经走完了半程。我的目标很简单:我希望明确指出,不受控制的AGI(人工通用智能)带来的危险是真实而紧迫的。阅读更多:没有人知道如何安全测试AI尽管有了这些进展,正如斯坦福以人为本人工智能研究院所指出的那样,目前大多数人工智能系统仍然依赖于人类的指导。它们被设计用于执行特定的任务,并根据我们提供的数据和指令进行操作。如果一个国家在没有适当保障措施的情况下开发出AGI,其后果可能会波及全世界。