悄悄地Google变得更加邪恶过去一周。
该公司改变了其承诺AI责任而且不再承诺不开发用于危险技术的AI。Google AI原则的先前版本承诺,该公司不会为AI开发AI“武器或其他主要目的或实施的技术是造成或直接促进人们伤害“ 或者 ”收集或使用信息进行监视的技术违反国际公认的规范。”那些承诺现在消失了。
如果您不太擅长破译Technobabble公共关系伪语言,那意味着为武器和间谍“东西”制作AI。这表明Google愿意开发或协助开发可用于战争的软件。它不仅可以绘制AI驱动死亡机器人的图片,而是可以用来帮助建造它们。
与几年前相比,这是一个缓慢而稳定的变化。2018年,该公司拒绝续签“项目Maven“与政府的合同分析了无人机监视,并且未能竞标五角大楼的云合同,因为它不确定这些是否与公司的AI原则和道德规范保持一致。
然后在2022年,发现Google的参与”项目nimbus“给公司的一些高管在公司担心谷歌云服务可以用于侵犯人权行为的促进或与之相关。Google的回应是迫使员工停止讨论像巴勒斯坦的政治冲突。
那进展顺利,导致抗议,大规模裁员,以及进一步的政策变化。2025年,Google并没有回避其云AI的战争潜力。
这并不奇怪。有很多钱可以为国防部或五角大楼工作,高管和股东真的很喜欢很多钱。但是,还有更加险恶的想法,我们参加了AI军备竞赛,必须赢得胜利。
Demis Hassabis,首席执行官Google Deepmind,在博客文章“民主国家应该领导AI发展”。这不是一个危险的想法 - 直到您与之一起阅读评论就像Palantir Cto Shyam Sankar's一样,他说,AI军备竞赛必须是“整个国家的努力,远远超出了国防部,以使我们成为一个国家赢得胜利”。
这些想法可以将我们带到第二次世界大战的边缘。美国和中国之间的赢家赢家AI武器竞赛似乎对胜利方面的领导人来说只是有益的。
我们都知道最终将使用AI。在开玩笑时,我们半个严重的是,知道AI可能会变成不需要睡觉或吃饭的超级士兵,只停下来更换电池并充满弹药储备金。什么是视频游戏创意今天可以成为未来的现实。
而且我们对此无能为力。我们可以停止使用Google的所有(以及Nvidia's,Tesla's,Amazon's和Microsoft ...你明白了)产品和服务是一种抗议和迫使改变的方式。这可能会产生影响,但这不是解决方案。如果Google停止这样做,另一家公司将取代并雇用同一个人,因为他们可以提供更多的钱。或者Google可以简单地停止生产消费产品,并有更多时间从事非常有利可图的国防部合同。
技术应该使世界变得更美好 - 这就是我们的承诺。没有人谈论它的弊端和屠杀。希望负责人比钱更喜欢人类的改善。