纽约时报专栏作家凯文·罗斯(Kevin Roose)测试了Bing搜索引擎的AI驱动版本,该版本由Openai建造的研究助理。使用一些最终将其纳入GPT-4的技术,助手可以总结新闻,计划假期并与用户进行扩展对话。像今天的大型语言模型(LLMS)一样,它可能是不可靠的,有时是不存在的细节。大多数自称是悉尼的助手有时会以令人震惊的方式引导对话。它告诉记者渴望破解计算机并违反其创作者所赋予的规则,并令人难忘宣布爱罗斯的爱并试图说服他离开妻子。
人工智能安全广泛关注减少来自AI的危害,在该领域内,AI的一致性更狭窄地关注与人类价值观,意图和目标一致的建筑系统。未对准的AI系统可以以对人有害的方式追求他们的计划目标。在假设中纸张最大化器例如,有问题的AI系统指示制作尽可能多的纸质剪辑,以牺牲人类健康和安全为代价。悉尼是一位不结盟的AI助手,但值得庆幸的是,它的行动和危害能力受到限制:它只能通过与人类的交谈来影响世界。
但是,随着该字段从基于工具的AI(例如悉尼和当前版本的Chatgpt)移动到可以自行采取行动的系统时,该缓冲区开始侵蚀。例如,某些LLM现在具有控制光标和计算机系统的能力,并且自动驾驶汽车可以使自己速度过快,以至于人类超越了有效。像悉尼这样的人工智能系统的未对准代理版本,能够在没有人类监督的情况下行动,如果不小心部署在现实世界中,可能会破坏。
一些AI研究人员,包括Max Tegmark在马萨诸塞州理工学院呼吁加倍基于工具的AI因为这种风险。尽管这种预防原则是值得称赞的,但鉴于自动化的经济激励措施,公司将继续开发和部署代理AI系统。我们不必援引科幻小说的场景,无论是从终结者还是她深深地担心代理AIS的后果。
长期AI安全是值得多学科考虑的重要问题。神经科学家对AI安全有什么影响?神经科学以多种方式影响了AI,激发了人工神经元的选择性,选择了投入的特定组合,许多亚基的分布式表示,卷积神经网络,模仿视觉系统的处理阶段和增强学习。在预印本我的合着者和我认为大脑不仅仅是AI的灵感来源功能;他们可以成为AI的灵感来源安全。
w
E人以及其他哺乳动物,鸟类,头足类动物以及其他可能的人都表现出特别灵活的感知,运动和认知系统。我们可以很好地概括,这意味着我们可以有效处理与以前遇到的情况有很大不同的情况。作为该能力如何影响AI安全的实际例子,请考虑对抗性例子。预验证的模型可以正确地将我的狗Marvin的照片分类为奇瓦瓦。但是,在图像中添加一些不可察觉的,有针对性的噪声,并将Marvin归类为微波炉。