特朗普获胜可能引发危险的人工智能

2024-10-21 10:30:00 英文原文

作者:Eric Geller

一位负责人工智能问题的美国政府官员表示,报告要求对于提醒政府注意日益强大的AI模型中潜在危险的新能力至关重要。这位要求匿名发言的官员指出,开放人工智能(OpenAI)的承认关于其最新模型“不一致地拒绝合成神经剂请求”的问题。

官方表示,报告要求并不过分繁重。他们认为,与欧盟和中国的AI监管相比,拜登的行政命令体现了“一种非常宽泛、轻触式的做法,继续促进创新。”

尼克·里斯,曾在2019年至2023年担任美国国土安全部首任新兴技术总监,拒绝了保守派关于报告要求会危及公司知识产权的说法。他表示,这实际上可能有利于初创企业,通过鼓励它们开发“计算效率更高”、数据量更少的人工智能模型来满足报告门槛的要求。

阿米·菲尔兹-梅耶尔表示,人工智能的力量使得政府监管变得至关重要。阿米·菲尔兹-梅耶尔曾作为白宫科技官员帮助起草了拜登的行政命令。

菲尔德斯-梅耶说:“我们谈论的是那些声称正在建造有史以来最强大的系统的公司。”“政府的第一要务是保护人民。‘相信我,我们能搞定’并不是一个特别有说服力的论点。”

专家称赞NIST的安全指导是构建新技术保护措施的重要资源。他们指出,存在缺陷的AI模型可能会产生严重的社会危害,包括租赁和贷款歧视以及不当剥夺政府福利。

特朗普第一个任期的人工智能指令要求联邦AI系统尊重公民权利,这将需要研究社会危害。

AI行业有广受欢迎拜登的安全议程。“我们听到的反馈是,明确这些内容是有广泛用途的,”一位美国官员说。对于拥有小型团队的新公司来说,“这扩大了他们处理这些问题的能力。”

迈克尔·丹尼尔(Michael Daniel)曾是总统网络安全顾问,现在领导一家非营利的信息共享组织——网络威胁联盟。他表示,撤销拜登的行政命令将发出一个令人担忧的信号,即“美国政府将对人工智能安全采取不干预的态度。”

至于与中国的竞争,EO的支持者认为,安全规定实际上将有助于美国胜出,确保美国的AI模型比中国的竞争对手更优秀,并且能够抵御北京的经济间谍活动。

两条截然不同的道路

如果特朗普下个月赢得白宫,预计政府在人工智能安全问题上的态度将发生根本性变化。

共和党人希望通过适用“现有的侵权和法规”来防止人工智能带来的危害,而不是对这项技术实施广泛的新的限制,赫尔贝格说。他们更倾向于“更加重视最大化由人工智能提供的机会,而不是过度关注风险防范”。这可能会导致报告要求的取消,甚至可能会影响到国家标准与技术研究院(NIST)的部分指导方针。

如今最高法院已经做出了决定,报告要求也可能面临法律挑战。削弱了尊敬之情法院在评估机构法规时曾经给予的指导或考虑因素。

而共和党的反对甚至可能危及NIST的自愿的人工智能测试合作伙伴关系与领先公司有关的承诺在新政府上台后会如何?”美国官员问道。

围绕人工智能的这种分化让技术专家们感到沮丧,他们担心特朗普会破坏追求更安全模型的努力。

“人工智能既有承诺也有风险,”布鲁金斯学会技术创新中心的主任尼科尔·特纳·李说,“确保这些系统的安全和保障至关重要,下一任总统需要继续在这方面努力。”

关于《特朗普获胜可能引发危险的人工智能》的评论


暂无评论

发表评论

摘要

一位负责人工智能问题的美国政府官员表示,报告要求对于提醒政府注意日益强大的AI模型中潜在危险的新能力至关重要。这位美国官员说:“我们听到的是,明确这些内容是很有用的。”前总统网络安全顾问、现领导非营利性信息共享组织网络威胁联盟的迈克尔·丹尼尔说,撤销拜登的行政命令将发出一个令人担忧的信号,即“美国政府将采取放任态度对待AI安全”。赫尔伯格表示,共和党人希望通过适用“现有的侵权和法规”来防止AI带来的危害,而不是广泛限制这项技术,并且他们更倾向于“更多地关注最大化人工智能提供的机遇,而非过度关注风险缓解。”这种围绕AI的两极分化让担心特朗普将破坏寻求更安全模型努力的技术人员感到沮丧。