英语轻松读发新版了,欢迎下载、更新

AI的“教父”说,DeepSeek的进步可能会增加安全风险

2025-01-29 14:19:00 英文原文

作者:Dan Milmo

根据AI专家的地标报告,人工智能系统用于恶意行为的潜力正在增加,该研究的主要作者警告说DeepSeek其他破坏者可能会增加安全风险。

Yoshua Bengio被认为是现代AI的教父之一,他说中国初创公司DeepSeek的进步在近年来美国已经主导的一个领域中,可能是令人担忧的发展。

这意味着一个更近的比赛,从某种程度上来看,这通常不是一件好事 AI安全。

班吉奥说,美国公司和其他竞争对手涉足DeepSeek可以专注于重新获得领导,而不是在安全上。Openai,开发商chatgptDeepSeek在本周发起自己的虚拟助手的推出方面对此提出了质疑,并因此加速了产品的发行。

•班吉奥说,如果您想象两个实体之间的竞争,一个人认为他们是领先的,那么他们有能力更加谨慎,并且仍然知道他们会保持领先地位。”``但是,如果您在两个实体之间进行竞争,并且他们认为另一个只是同一水平,那么他们需要加速。然后,也许他们不会给予安全的关注。

在发布有关AI安全的广泛报告之前,Bengio以个人身份发言。

第一个国际AI安全报告由包括诺贝尔奖获得者在内的96名专家组成杰弗里·欣顿(Geoffrey Hinton)。本吉奥(Bengio)是2018年图灵奖的联合获奖者 - 被称为诺贝尔计算奖 - 由英国政府主持该报告,该报告宣布在该报告。Bletchley Park的全球AI安全峰会在2023年。小组成员由30个国家以及欧盟和联合国提名。下一个全球AI峰会于2月10日至11日在巴黎举行。

该报告指出,自出版以来临时研究去年5月,诸如聊天机器人之类的通用AI系统已经变得更有能力在与恶意使用相关的领域,例如使用自动化工具来突出软件和IT系统中的漏洞,并提供指导关于生物和化学武器的生产。

它说,新的AI模型可以生成分步技术说明,以创建超过博士学位专家能力的病原体和毒素,Openai承认其高级O1模型可以帮助专家计划如何产生生物学威胁。

但是,该报告说,不确定新手是否能够根据指导采取行动,并且模型也可以用于医学等有益目的。

本吉奥在接受《卫报》说,模型已经出现了,可以使用智能手机摄像头,理论上指导人们完成诸如试图建造生物武器的危险任务。

这些工具变得越来越容易被非专家使用,因为它们可以将复杂的任务分解为每个人都可以理解的较小步骤,然后它们可以交互帮助您正确地完成它们。他说,这与使用Google搜索大不相同。

该报告说,自去年以来,AI系统的能力显着改善,他们在没有人为干预的情况下自动发现软件缺陷。这可以帮助黑客计划网络攻击。

但是,该报告称,自主进行现实世界攻击是迄今为止AI系统之外的,因为它们需要特殊水平的精度。

在对AI带来的风险分析的其他地方,该报告指出,深层含量的含量大幅增加,该技术用于产生对某人的令人信服的相似性 - 无论是他们的形象,声音还是两者兼而有之。它说深烟已经习惯了捣蛋公司交给钱,提交勒索并创建人的色情图像。它说,由于缺乏全面和可靠的统计数据,很难得出这种行为的确切水平。

也存在恶意使用的风险,因为所谓的封闭源模型无法修改基础代码,可能容易受到避难的越狱安全护栏,而诸如Meta S Llama之类的开源型号则是免费的要下载并可以由专家调整,构成了促进恶意或误导性的恶意使用的风险。

加拿大计算机科学家在Bengio撰写的报告的最后一分钟的补充中指出,该报告在报告完成后不久就出现了。。班吉奥(Bengio)表示,其在关键的抽象推理测试中取得突破的能力是包括他本人在内的许多专家直到最近才想到的成就。

跳过通讯促销

Bengio写道,O3证明的趋势可能对AI风险产生深远的影响,他还标记了DeepSeek S R1模型。``本报告中的风险评估应以了解自撰写以来的AI获得能力,以了解本报告中的风险评估。

班吉奥(Bengio)告诉《卫报》(Guardian),推理的进步可能会通过创建能够执行人类任务的自治代理人,但也可以协助恐怖分子来对就业市场产生影响。

他说,如果您是恐怖分子,您想拥有一个非常自治的AI。”他说。随着我们增加代理的增加,我们增加了人工智能的潜在益处,并增加了风险。”

但是,班吉奥说,AI系统尚未制定长期计划,这些计划可以创建完全自主的工具来逃避人类的控制。他说,如果AI无法在漫长的视野上计划,那将无法逃脱我们的控制。”

在其他地方,近300页的报告引用了对AI的公认的关注,包括产生骗局和儿童性虐待图像;有偏见的输出和违反隐私的行为,例如与聊天机器人共享的敏感信息泄漏。它说,研究人员无法完全解决这些恐惧。

AI可以松散地定义为执行通常需要人类智能的任务的计算机系统。

该报告的完整标题是有关高级AI安全的国际科学报告,它通过使用数据中心对AI的迅速增长对环境产生了影响,并且有可能使AI代理人拥有一个。对就业市场的深刻影响。

它说,AI的未来是不确定的,在不久的将来,包括非常积极和非常消极的结果可能会取得广泛的结果。它说,社会和政府仍然有机会决定该技术采取的道路。

这种不确定性会引起宿命论,并使AI看起来像是我们发生的事情。报告说,这将是社会和政府关于如何应对这种不确定性的决定,这决定了我们将要采取的道路。

关于《AI的“教父”说,DeepSeek的进步可能会增加安全风险》的评论


暂无评论

发表评论

摘要

包括Yoshua Bengio和Geoffrey Hinton在内的96名AI专家的具有里程碑意义的报告警告说,随着人工智能系统变得越来越有能力恶意使用,安全风险增加。该报告强调了中国初创公司DeepSeek的进步,并建议进行统治地位可能会导致人们对AI安全的关注下降。它还指出,新的AI模型可以为危险活动生成详细的说明,超过专家的能力,同时在医学等领域提供好处。该研究强调,由于AI系统的自主缺陷检测以及与封闭源和开源AI模型相关的风险,人们对Deepfake含量,软件中的脆弱性的关注不断增加。班吉奥强调,尽管完全的自主权仍然是一个挑战,但推理能力的最新发展可能会对就业市场和安全产生重大影响。

相关讨论