英语轻松读发新版了,欢迎下载、更新

人类滥用将使人工智能更加危险

2024-12-13 14:00:00 英文原文

作者:Arvind Narayanan

期望通用人工智能,或通用人工智能 – 人工智能在大多数任务上表现优于人类 – 大约在 2027 年或 2028 年。埃隆·马斯克的预测是2025 年或 2026 年,他有声称他“因人工智能危险的威胁而失眠”。这样的预测是错误的。作为局限性随着当前人工智能的发展越来越清晰,大多数人工智能研究人员都认为,仅仅构建更大、更强大的聊天机器人并不会带来通用人工智能。然而,到 2025 年,人工智能仍将构成巨大风险:不是来自人工超级智能,而是来自人类滥用。

这些可能是无意的滥用,例如律师过度依赖人工智能。

例如,在 ChatGPT 发布后,一些律师因使用人工智能生成错误的法庭简报而受到制裁,他们显然没有意识到聊天机器人有编造事实的倾向。在不列颠哥伦比亚省,律师崇科在一份法律文件中加入了虚构的人工智能生成的案件后,被责令支付对方律师的费用。在纽约、Steven Schwartz 和 Peter LoDuca 因提供虚假引文而被罚款 5,000 美元。在科罗拉多州,Zachariah Crabill 因使用 ChatGPT 生成的虚构法庭案件并将错误归咎于“法律实习生”而被停职一年。该列表正在快速增长。

其他滥用行为是故意的。2024 年 1 月,露骨色情内容泰勒·斯威夫特 (Taylor Swift) 的 Deepfakes社交媒体平台被淹没。这些图像是使用 Microsoft 的“Designer”AI 工具创建的。虽然该公司设有护栏以避免生成真人图像,但拼错斯威夫特的名字就足以绕过它们。微软自此固定的这个错误。但泰勒·斯威夫特只是冰山一角,未经同意的深度假货正在广泛扩散——部分原因是创建深度假货的开源工具是公开可用的。世界各地正在进行的立法旨在打击深度造假,以期遏制损害。是否有效还有待观察。

到 2025 年,区分真假将变得更加困难。人工智能生成的音频、文本和图像的保真度非常出色,其次是视频。这可能会导致“说谎者的红利”:那些掌握权力的人声称其不当行为的证据是假的,从而否认这些证据。2023年,特斯拉争论埃隆·马斯克 (Elon Musk) 2016 年发布的一段视频可能是深度造假视频,以回应有关首席执行官夸大特斯拉自动驾驶仪安全性并导致事故的指控。一位印度政客声称,他承认其政党腐败的音频片段被篡改(至少有一个片段中的音频被篡改)。已验证与新闻媒体报道的一样)。1 月 6 日骚乱中的两名被告声称,他们出现的视频是深度伪造的。两人都是被判有罪

与此同时,公司正在利用公众的困惑,通过给产品贴上“人工智能”的标签来销售根本上可疑的产品。当这些工具被用来对人进行分类并做出相应的决策时,这可能会出现严重错误。例如,招聘公司 Retorio,索赔其人工智能根据视频面试来预测候选人的工作适合性,但一项研究发现,该系统可以简单地通过眼镜的存在或用书架替换普通背景来欺骗,这表明它依赖于表面相关性。

目前,人工智能在医疗保健、教育、金融、刑事司法和保险领域的数十个应用中也被用来剥夺人们重要的生活机会。在荷兰,荷兰税务机关使用人工智能算法来识别儿童福利欺诈者。它错误地指责数千名家长往往要求偿还数万欧元。受此影响,总理及其整个内阁辞职。

到 2025 年,我们预计人工智能风险不是由人工智能本身产生,而是由人们使用它的方式产生。这包括以下情况似乎工作良好且被过度依赖(律师使用 ChatGPT);当它运作良好但被滥用时(未经同意的深度假货和骗子的红利);当它根本不适合目的时(剥夺人们的权利)。降低这些风险对于公司、政府和社会来说是一项艰巨的任务。如果不被科幻小说的担忧分散注意力,这已经足够困难了。

关于《人类滥用将使人工智能更加危险》的评论


暂无评论

发表评论

摘要

OpenAI 首席执行官 Sam Altman 预测 AGI 将于 2027-2028 年左右出现,而埃隆·马斯克则预测 2025-2026 年,但大多数 AI 研究人员不同意。2025 年当前的风险源于人类滥用,而不是超级智能人工智能,包括无意中过度依赖有缺陷的系统(例如,使用 ChatGPT 的律师)和故意滥用,例如深度伪造。随着人工智能生成的内容变得更加令人信服,它可能会导致伪造证据的虚假说法。公司还误导性地将产品宣传为人工智能,以利用公众的困惑,导致医疗保健和刑事司法等领域出现严重的道德问题。解决这些风险需要公司、政府和社会付出巨大努力,同时又不能被对先进人工智能的投机性担忧所分散。开放人工智能首席执行官萨姆·奥特曼