仅在11年前威胁人类的未来。
两年前,鉴于其指数增长到未知的结果,人们担心失去控制的一千多名领导者,呼吁立即AI研究中的六个月停顿等待创建通用安全标准。在两周内,法国和印度将共同主持国际巴黎的峰会在2023年英国托管之后,更好地搜索协议以确保AI的安全布莱奇利公园的峰会。
所有贵族的东西都委托了历史,以保护人类机构(实际上是人类)的行动,从将我们的决定批发外包给机器。从他的威胁到美国公共卫生和美国宪法的所有恐惧中报废乔·拜登(Joe Biden)AI安全协议是最严重的。在向美国政府释放公众之前,AI公司被迫与美国政府分享新模式的安全测试,以确保他们不会损害美国的经济,社会或保障利益。特别是顺序要求通用测试标准对于任何相关的化学,生物学,放射学,核和网络安全风险。不更多。
特朗普以反无情的言论和反创新方式袭击了拜登的安全令。但是,它给予真正的真正威胁的是,它伴随着未来四年在新这款新的情况下发行了500亿美元的支出AI Stargate项目,有1亿美元用于立即建设必要的AI基础设施,包括渴望能量的元数据中心。目的是使美国人工智能占主导地位,以便是美国建造的机器和美国知识产权驱动预期提高生产力的大规模自动化。
可能。高盛(Goldman Sachs)预测全球所有工作的18%可能会丢失在不久的将来自动化全球300m的工作。经验丰富的AI观察员Anthony Elliot教授在他的最新著作中发表了评论,焦虑算法:数字时代的恐惧,将我们的决策外包给机器及其日益增长的控制 - 我们的驾驶方式,观看方式或我们工作的步伐引起了个人焦虑的流行。(他在上周列出了他的案子我们的社会播客,我主持的。)AI甚至可以接受我们的工作。那是在特朗普的王牌袭击我们之前。
美国言论自由科技巨头将释放出一种虚假的洪流,这严重毁容了我们对现实的理解,并沉迷于在线混乱中造成造成性虐待和喂养暴力的泛滥。将不会检查用于指导从法院判决到有关员工招聘建议的所有偏见的AI算法。黑客将爆炸,雇主将使用AI来监视我们的每一秒钟工作。特朗普的单方面鲁ck,还有其他更多的存在危险 - 例如,对基因编辑的AI错误计算。更糟糕的是,AI驱动的无人机将根据所有战争规则从空中肆意杀死。AI控制的核武器会破坏吗?很少有人相信包括直到最近的埃隆·马斯克,美国领先的人工智能公司有这些流程可以安全地管理他们所产卵的越来越智能的机器生成的情报。现在,在寻求商业优势的比赛中,他们不必关心。
新闻通讯促销之后
特朗普粗心驳斥这些风险与英国政府的立场差异AI机会行动计划,本月早些时候发表的话,几乎不可能是史塔克(Starker)。该计划观察到的AI是一项具有变革力量做好的技术。Deepmind的Alphafold例如,据估计,通过部署AI的计算能力,估计已经节省了4亿年的研究人员时间来检查蛋白质结构。总体上,有机会在个性化教育和培训中,以更好的健康诊断来探索大量数据集中的模式,从而使所有形式的研究更加详尽,更快地进行。
但是有一个绳索要走。该计划承认,艾伊(Ai)有很大的风险,必须从中保护公众以促进生命信任。这意味着法规充分设计和实施,以保护公众,同时不阻碍创新。但是英国不仅应该是接受者我们在很大程度上依赖的美国公司的AI想法,这些想法将建立大多数数据中心制造商AI。该报告说,为了确保英国的未来,我们需要本土的Aiâ,这是一份报告,为此,它提出了一个新的政府部门,英国主权AI授权,与私营部门合作,以确保英国在AI的边境拥有重要的影响力。总理凯尔·斯塔默(Keir Starmer)正确地认可了该报告:他将把英国国家的全部重量放在所有50个建议的背后 - 政府工业战略的核心。
但是,从华盛顿的新帝国看出,这是一项故意的不服从行为 - 宣布与预期的AI霸权的独立宣言。英国确实具有重要的AI能力,但是手臂财产(英国脱欧后出售给日本的软银在2016年,奈杰尔·法拉奇(Nigel Farage)的喜悦,他说这是英国开放的,现在是特朗普的《星际之门》的核心)和深态(由Google购买),他们被允许消散。不再。产生我们的国家AI冠军(我会补充的是,保护我们的文明)将暗示战略工业行动主义,类似于日本的米蒂(国际贸易和工业部)或1960年代新加坡的新加坡经济发展委员会Starmer支持的报告说。
如果不可避免地,如果不可避免地,特朗普对贸易和公司税的交易可能会达成协议,但是要使报告对AI的野心投降是要投降我们的经济未来和我们所在的社会。想生活。我们也不应落在中国温柔的怜悯之上。政府有机会为英国站起来,并在此过程中建立了欧盟及其他地区的新盟友。我们需要自己的波士顿茶党 - 没有代表权,并抵制了美国AI的帝国主权。