一家与英国政府在人工智能安全、NHS 和教育领域密切合作的公司也在开发用于军用无人机的人工智能。
据一家国防工业合作伙伴公司称,咨询公司Faculty AI拥有“在无人机上开发和部署人工智能模型的经验”。
Faculty 已成为英国销售人工智能服务最活跃的公司之一。与喜欢的人不同OpenAI、Deepmind 或 Anthropic,它本身并不开发模型,而是专注于转售模型(尤其是来自 OpenAI 的模型),并就其在政府和行业中的使用提供咨询。
在英国脱欧公投前为脱欧运动进行数据分析后,教师们在英国获得了特别的关注。鲍里斯·约翰逊 (Boris Johnson) 的前顾问多米尼克·卡明斯 (Dominic Cummings)将政府工作交给学院疫情期间,包括其首席执行官马克·华纳,在政府科学顾问小组的会议上。
从那时起,该公司(正式名称为Faculty Science)开始对人工智能模型进行测试。英国政府人工智能安全研究所 (AISI) 于 2023 年成立在前总理里希·苏纳克 (Rishi Sunak) 的领导下。
在生成式人工智能的快速改进引发了对其可能性的大肆宣传之后,世界各国政府都在竞相了解人工智能的安全影响。
武器公司热衷于将人工智能应用到无人机上,从可以与战斗机并肩飞行的“忠诚僚机”,到已经能够等待目标出现后再向目标开火的徘徊弹药。
最新的技术发展提高了无人机追踪和追踪的前景。在无人参与的情况下杀人——在循环中——做出最终决定。
在一个新闻稿英国初创公司 Hadean 在宣布与伦敦的Faculty 建立合作伙伴关系时写道,两家公司正在“主题识别、跟踪物体运动以及探索自主集群开发、部署和操作”方面开展合作。
据了解,Faculty 与 Hadean 的合作不包括武器瞄准。然而,学院没有回答是否正在研究能够使用致命武力的无人机的问题,也没有援引保密协议来提供其国防工作的进一步细节。
学院发言人表示:“我们帮助开发新颖的人工智能模型,这将帮助我们的国防合作伙伴创建更安全、更强大的解决方案,”并补充说,学院拥有“严格的道德政策和内部流程”,并遵循道德规范国防部关于人工智能的指导方针。
该发言人表示,该学院在人工智能安全方面拥有十年的经验,包括打击儿童性虐待和恐怖主义。
《卫报》的最终所有者 Scott Trust 是 Mercuri VC(前身为 GMG Ventures)的投资者,后者是Faculty 的少数股东。
“我们在人工智能安全方面已经研究了十年,是该领域世界领先的专家,”发言人表示。“这就是为什么我们受到政府和模型开发人员的信任,以确保前沿人工智能的安全,并受到国防客户的信任,以合乎道德的方式应用人工智能来帮助保障公民的安全。”
许多专家和政治家呼吁在将更多自主技术引入军队之前保持谨慎。上议院的一个委员会于 2023 年呼吁英国政府尝试制定一项条约或不具约束力的协议,以澄清国际人道法在致命无人机方面的适用。绿党九月呼吁立法彻底禁止致命自主武器系统。
学院继续与 AISI 密切合作,使其判断能够对英国政府政策产生影响。
11 月,AISI 与学院签约,调查有多少大型语言模型“被用来帮助犯罪或其他不良行为”。AISI 表示,合同的获胜者——Faculty——将成为 AISI 保障团队的重要战略合作者,直接为 AISI 的系统安全模型贡献关键信息。
该公司直接与掀起最新一波人工智能热潮的初创公司 OpenAI 合作,使用其 ChatGPT 模型。据新闻网站 Politico 报道,专家此前曾对学院与 AISI 开展的工作中潜在的工作冲突表示担忧。教职人员没有详细说明其测试了哪些公司的模型,尽管它测试了OpenAI 的 o1 模型在其发布之前。
政府此前曾这样评价 AI 学院为 AISI 所做的工作:“至关重要的是,他们在开发自己的模型时并不存在冲突”。
绿党同侪娜塔莉·贝内特 (Natalie Bennett) 表示:“绿党长期以来一直对工业界与政府之间的‘旋转门’表示严重关切,提出了天然气公司员工被借调从事能源政策工作的问题。”前往军火公司工作的前国防部长。
– 一家公司既承担了大量人工智能方面的政府合同,又与人工智能安全研究所合作测试大型语言模型,这是一个严重的问题 – 并不是那么严重 – 偷猎者变身猎场看守人——同时扮演这两个角色。”
贝内特还强调,英国政府“尚未做出充分承诺”,以确保按照上议院委员会的建议,有人参与自主武器系统的开发。
根据政府披露的信息,Faculty 的最大股东是一家在根西岛注册的控股公司,该公司还寻求与英国政府建立密切联系,赢得了价值至少 2660 万英镑的合同。其中包括与 NHS、卫生和社会保障部、教育部以及文化、媒体和体育部的合同。
这些合同是该公司的重要收入来源,该公司截至 3 月 31 日的一年销售额达 3200 万英镑。在此期间我损失了 440 万英镑。
布里斯托大学经济法教授阿尔伯特·桑切斯-格雷尔斯警告说,英国正在依赖科技公司“人工智能开发中的自我克制和责任”。
“支持 AISI 工作的公司需要避免因为政府其他部门和更广泛的基于市场的人工智能业务工作而产生组织利益冲突,”Sanchez-Graells 说。
“Faculty 等拥有如此广泛的人工智能活动组合的公司需要回答以下问题:如何确保向 AISI 提供的建议是独立且公正的,以及如何避免在其他活动中利用这些知识。”
科学、创新和技术部拒绝发表评论,称不会详细介绍个人商业合同。