英语轻松读发新版了,欢迎下载、更新

硅谷正在讨论是否应允许AI武器决定杀人 | TechCrunch

2024-10-11 16:09:40 英文原文

作者:Margaux MacColl

九月底,Shield AI 的联合创始人 Brandon Tseng 发誓说,美国的武器永远不会完全自主——也就是说,不会有一个AI算法做出最终杀死某人的决定。“国会不希望那样。”防御技术创始人告诉TechCrunch“没有人希望那样。”

但是曾的言论为时过早。五天后,Anduril联合创始人帕尔默·卢基表示对自主武器持开放态度——或者至少对其反对意见持有强烈的怀疑态度。“我们的对手会使用听起来很好的口号:难道你们不能同意机器人不应该决定谁生谁死吗?”卢基说道。本月早些时候在佩珀代因大学的一次讲话中所说的内容“我的观点是,在一个无法区分载满孩子的校车和俄罗斯坦克的地雷中,道德高地在哪里?”

当被要求进一步评论时,Anduril的发言人肖恩·普里奥表示,卢基的意思并不是说应该编程让机器人自行杀死人类,只是他担心“坏人使用糟糕的人工智能。”

在过去,硅谷一向谨慎行事。听听他的联合创始人Trae Stephens的说法:“我认为我们正在建造的技术使得人类能够就这些问题做出正确的决定。”他告诉卡拉·斯威舍“因此,在所有可能涉及致命性的决策过程中都有一个负责任的当事方。” 

安德鲁伊的发言人否认了Luckey(见上图)和Stephens的观点之间存在任何不一致,并表示Stephens的意思并不是说人类应该总是做出决定,而是说有人需要承担责任。

说到底,美国政府本身的立场也同样是模棱两可的。目前,美国军队并不购买完全自主的武器。尽管有人认为像地雷和导弹这样的武器可以自主运行,但这与那种在没有人类干预的情况下能够识别、瞄准并打击目标的炮塔等形式的自主性是本质不同的。

美国并没有禁止公司制造完全自主的致命武器,也没有明确禁止他们这样做。 将这些东西卖给外国。 去年,美国发布了更新的军事人工智能安全指南,这些指南得到了许多美国盟友的认可,并要求高级军事官员批准任何新的自主武器;然而,这些指南是自愿性的(安德鲁尔表示将遵守这些指南),而且美国官员一直在强调这是“不是合适的时间”考虑任何关于自主武器的具有约束力的禁令。

上个月,Palantir的联合创始人兼Anduril投资者Joe Lonsdale也表现出愿意考虑完全自主武器。在智库Hudson Institute举办的一次活动中,Lonsdale表达了对这一问题被描述为非黑即白的看法感到沮丧。他反而假设中国已经接受了AI武器,但美国每次开火时都必须“按下按钮”。他鼓励政策制定者采取更加灵活的方法来决定武器中包含多少人工智能。

“你很快就会意识到,如果我只是制定一个愚蠢的自上而下的规则,我的假设是错误的,因为我是一个从未玩过这个游戏的工作人员,”他说。“这可能会毁了我们在战斗中的表现。”

当TechCrunch向Lonsdale进一步求证时,他强调国防科技公司不应该成为致命AI议程的制定者。“我所说的最关键背景是我们这些公司不制定政策,也不想制定政策:制定政策是民选官员的责任,”他说,“但他们确实需要了解细微之处以便做好工作。”

他还重申了考虑在武器上赋予更多自主权的意愿。“这并不是像你所说的那样二选一——‘完全自主或不自主’不是正确的政策问题。在这几个不同的维度上有复杂的选择,涉及士兵可以做什么和武器系统应该做什么。”他说,“在决策者制定这些规则并决定在什么情况下需要将这些选择设置在哪里之前,他们需要了解游戏的规则,并了解敌人可能会做些什么,以及在危及美国生命的情况下获胜所需要的条件。”

活动人士和人权组织长期以来一直试图但未能建立针对自主致命武器的国际禁令——美国对此持反对态度。拒绝签署但俄乌战争可能已经改变了局势,对活动人士不利,为防御技术创始人提供了大量战斗数据和一个测试场。目前,公司正在将人工智能整合到武器系统中,尽管最终决定是否发动杀伤性攻击仍然需要人类来做。

与此同时,乌克兰官员推动武器自动化的发展,希望这能使他们在与俄罗斯的竞争中占据优势。“我们需要最大限度的自动化,”他说。我的赫梅利尼茨基州州长米哈伊洛·费多罗夫,注意这里似乎缺少完整的句子或者上下文信息,仅提供了一个名字和一个职位描述。如果需要更准确的翻译或有更多内容,请提供更多详细信息。根据要求只输出翻译结果,则为: Mykhailo Fedorov,乌克兰数字转型部长在接受《纽约时报》采访时表示:“这些技术对我们的胜利至关重要。”

对于硅谷和华盛顿特区的许多人来说,最大的担忧是中国或俄罗斯率先推出完全自主武器,从而迫使美国采取行动。在去年的一次联合国关于人工智能武器的辩论中,一位俄罗斯外交官特别含糊其辞。“我们理解许多代表团的优先事项是人类控制。”他说。对于俄罗斯联邦而言,优先事项有所不同。

在Hudson Institute的活动上,隆索尔表示科技行业需要主动“教导海军、国防部和国会了解AI的潜力”,希望能借此“让我们领先于中国”。

伦斯戴尔和卢基的附属公司正在努力让国会听取他们的意见。根据OpenSecrets的数据,安德鲁和帕兰提尔今年在游说上的支出合计已超过400万美元。

编者注:本文更新增加了更多关于自主武器的描述语言。

关于《硅谷正在讨论是否应允许AI武器决定杀人 | TechCrunch》的评论


暂无评论

发表评论

摘要

九月底,Shield AI 的联合创始人 Brandon Tseng 发誓美国的武器永远不会是完全自主的——这意味着不会由人工智能算法来做出最终杀死某人的决定。五天后,Anduril 的联合创始人 Palmer Luckey 表达了对自主武器持开放态度——或者至少是对反对自主武器的观点表示强烈怀疑。“当被要求进一步评论时,Anduril 发言人 Shannon Prior 表示,Luckey 并不意味着机器人应该编程为自行杀死人们,他只是担心“坏人使用坏的 AI。”去年,美国发布了更新版的军事人工智能安全指导方针,得到了许多美国盟友的认可,并且要求高级军事官员批准任何新的自主武器;然而这些指南是自愿遵守的(Anduril 表示将遵循该指南),并且美国官员一直在不断表示现在“还不是考虑对自主武器实施强制性禁令的时候”。他鼓励政策制定者采用更加灵活的方法来确定武器中使用的人工智能比例。