数据中心首次成为战争目标
作者:Blake Montgomery
您好,欢迎来到 TechScape。我是你们的主人布莱克·蒙哥马利。如果您喜欢阅读本新闻通讯,请将其转发给您认为也会阅读的人。
美以对伊朗的战争表明数据中心是战争的新前沿伊朗
正在轰炸波斯湾的数据中心,以炸毁海湾国家与美国技术联盟的象征。额外的好处是:它们的重建成本极高,是历史上最昂贵的建筑之一。我的同事丹尼尔·博菲报告:
这被认为是第一次:故意针对商业数据中心呃,是由处于战争状态的国家的武装部队实施的。
周日凌晨 4.30,一架伊朗 Shahed 136 无人机袭击了亚马逊网络服务数据中心呃在阿拉伯联合酋长国,引发了一场毁灭性的火灾并迫使电力供应关闭。由于试图用水扑灭火焰,造成了进一步的损失。
不久之后,第二个数据中心美国科技公司旗下的呃受到了打击。据说第三架飞机遇到了麻烦,这次是在巴林,一架伊朗自杀式无人机袭击了附近的土地,变成了火球。
伊朗国家电视台声称,伊朗伊斯兰革命卫队发动了这次袭击,以查明这些部队的作用。支持敌人的军事和情报活动”。
协调一致的罢工产生了立竿见影的效果。迪拜和阿布扎比的数百万人周一醒来,无法支付出租车费用,也无法订购外卖或在移动应用程序上查看银行余额。
是否产生军事影响尚不清楚,但袭击迅速将战争直接带入了阿联酋 1100 万人的生活,其中十分之九是外国人。亚马逊已建议其客户确保其数据远离该地区。
阅读更多:“这意味着数据中心的导弹防御”:无人机袭击引发了人们对海湾作为人工智能超级大国的怀疑
《卫报》对人工智能和战争的看法

人类与美军的不和结束了人工智能保障措施与人工智能在伊朗危机中前所未有的使用同时发生,标志着世界发动战争方式的深刻变化。《卫报》编委会写:
范式转变已经开始。据报道,人类的克劳德在这场大规模且愈演愈烈的攻势中发挥了至关重要的作用,这场攻势已经导致伊朗估计有数千名平民丧生。专家称,这是一个轰炸时代——比思维速度还快——告诉卫报本周,人工智能将识别目标并确定优先级,推荐武器装备并评估打击的法律依据。
即使不考虑人工智能不准确和偏见的问题,其影响对其用户来说也是显而易见的。2024 年,一名以色列情报来源观察到的其在加沙战争中的使用: – 目标永无止境。还有 36,000 人在等待。”另一人说,他花了 20 秒评估每个目标,并表示:“除了获得认可之外,我作为一个人的附加值为零。”大规模杀戮在各个方面都得到了缓解,道德和情感上进一步疏远,责任也减少了。
民主监督和多边约束,而不是将决定权留给企业家和国防部门,是至关重要的。大多数政府都希望对人工智能的军事使用有明确的指导。抵制的是最大的参与者——尽管他们至少在场。人工智能驱动的战争的步伐意味着谨慎可能看起来像是将控制权交给对手。然而,正如科技工作者和军方官员自己意识到的那样,不受控制的扩张的危险要大得多。
Anthropic 是伊朗为数不多的反对全自动杀戮的公共支持者之一,对于一家甚至不对公开市场股东负责的私营公司来说,这是一个奇怪的立场。
我的同事尼克·罗宾斯-厄尔利 (Nick Robins-Early) 在一篇文章中指出深入探讨人类如何最终成为美国战争机器的瞄准目标:悬在五角大楼与人类之间的是一个更广泛的问题,即谁应该决定人工智能的用途,以及国会对自主武器系统缺乏详细的监管。尽管 Anthropic 和五角大楼都不认为私营公司应该对人工智能的军事应用拥有决策权,但目前该公司正在充当对军方似乎将人工智能武器化的广泛愿望的唯一检查者之一。
阅读更多:人工智能公司 Anthropic 如何最终成为五角大楼的瞄准目标
数据中心如何塑造美国政治
在线年龄验证正在全球蔓延
生成人工智能和自杀的令人不安的模式

我的同事达拉·克尔 (Dara Kerr) 报道称:
目前,已有十几起针对人工智能公司的诉讼,指控其聊天机器人导致人们自杀。最新款套装,上周对谷歌提起诉讼,声称其 Gemini 聊天机器人指示佛罗里达州一名 36 岁男子自杀,该机器人将其称为“移情”。据称,机器告诉他他们可以在不同的维度在一起。
当这名男子告诉聊天机器人他害怕死亡时,据称该工具让他安心了。– 你没有选择死亡。你选择到达,”它按照诉讼回答道。– 第一个感觉 – 是我抱着你。 –
谷歌发言人告诉《卫报》,Gemini 的设计初衷是“不建议自残”:“我们的模型在这类具有挑战性的对话中通常表现良好……但不幸的是,它们并不完美。”其他人工智能公司的发言人也做出了类似的回应。
这是针对谷歌的第一起诉讼,但 ChatGPT 的制造商 OpenAI 已成为七起以上诉讼的目标。其中一个案例涉及一名 48 岁的男子,他使用 ChatGPT 多年,集思广益,在俄勒冈州农村地区建造低成本住宅,但随着时间的推移,他变得越来越依赖机器人,每天花 12 个小时参与其中。他在切断人工智能的使用、重新启动、然后再次停止后结束了自己的生命。
在俄勒冈州 OpenAI 诉讼和针对谷歌提起的诉讼中,家属声称这些人没有精神疾病或抑郁症病史,并且聊天机器人导致他们产生人工智能引起的妄想。
当这些案件通过法律体系审理时,法院将确定谁负有责任——个人、机器人背后的公司,或者以某种方式,聊天机器人本身。法官和陪审团必须决定使用这些机器人的人是否已经容易产生自杀念头,或者这些公司及其和蔼可亲的聊天机器人是否容易强化用户现有的信念和倾向,是否有罪并有能力引发心理健康危机。