露西·胡克和克里斯·瓦兰斯
商业技术记者
领先的人权组织表示,Google的母公司取消了长期禁止人工智能(AI)用于开发武器和监视工具的行为“令人难以置信的是”。
Alphabet已将其指导方针改编了它将如何使用AI,放弃了以前排除“可能造成伤害”的申请的部分。
人权观察批评了这一决定,告诉英国广播公司,AI可以对“可能有生死后果”的战场决定“复杂化”。
在博客文章Google为这一变化辩护,认为企业和民主政府需要在“支持国家安全”的AI上共同努力。
专家说,AI可以广泛部署在战场上 - 尽管人们对其使用也有担忧,尤其是在自动武器系统方面。
人权观察《人权观察》高级AI研究员Anna Bacciarelli说:“让全球行业的领导者放弃其为自己的转变的红线,这是我们比以往任何时候都更需要AI负责任的领导力的转变。”
她补充说,“单方面”的决定也表明了“为什么自愿原则不能代替法规和约束法。”她补充说。
Alphabet在其博客中说,民主国家应在AI发展方面领导,并在其“核心价值观”之类的指导下,例如自由,平等和对人权的尊重。
它补充说:“我们认为,共享这些价值观的公司,政府和组织应该共同努力创建保护人民,促进全球增长并支持国家安全的AI。”
该博客是由高级副总统詹姆斯·莫蒂卡(James Monyika)和领导AI实验室Google DeepMind的Demis Hassabis爵士撰写的。
“大规模杀人”
近年来,人们对AI的军事潜力的认识已增强。
1月,国会议员认为,乌克兰的冲突表明该技术“在战场上具有严重的军事优势”
随着人工智能变得越来越普遍和成熟,它将“改变国防部的运作方式,从后台到前线”。
但是,除了AI专家和专业人士之间关于如何以广泛的方式管理强大的新技术的辩论争议围绕在战场和监视技术中使用AI。
对于能够自主采取致命行动的AI驱动武器的潜力,迫切需要迫切需要控制控制的武器的潜力。
世界末日时钟 - 象征着人类与破坏的近乎差异 -引用了这种担忧在对人类面孔的最新评估中。
它说:“乌克兰和中东已经使用了将人工智能纳入军事目标的系统,几个国家正在努力将人工智能整合到军队中。”
它补充说:“这样的努力提出了疑问,即使允许机器做出军事决定的程度,甚至可能会在大规模上杀死的决定。”
“不要邪恶”
最初,在当前对AI伦理的兴趣激增之前,Google的创始人Sergei Brin和Larry Page表示,他们对公司的座右铭是“不要邪恶”。
当公司以Alphabet Inc的名称进行重组时,母公司切换到“做正确的事情”。
从那时起,Google员工有时会反对其高管采取的方法。
在2018年,该公司没有续签与美国五角大楼的AI合同辞职和成千上万员工签署的请愿书。
他们担心“ Maven Project”是将人工智能用于致命目的的第一步。
该博客就在Alphabet的年终财务报告之前发表,显示出比市场预期弱的结果,并降低了其股价。
尽管数字广告的收入增长了10%,但其最大收入人士的收入增长,这是美国选举支出的推动。
该公司在其收益报告中表示,今年将在AI项目上花费75亿美元(600亿美元),比华尔街分析师预期的多29%。
该公司正在投资基础架构,以运行AI,AI研究以及AI驱动搜索等应用程序。