作者:Petar Tsankov LatticeFlow AI’s CEO
像苹果和Meta这样的大型科技公司在欧洲推出他们的AI模型时一直很谨慎。一个新的“大语言模型检查器”可能会有所帮助。
领先的生成式人工智能(GenAI)模型,包括OpenAI、Meta和Anthropic,并未完全符合欧洲的AI法规根据周三发布的一份报告。
欧盟的《人工智能法案》于今年八月生效,旨在为人工智能系统建立统一的规定,以防止其成为对社会的威胁。
然而,一些技术公司,如Meta和苹果,并未在欧洲推出他们的AI模型因为他们谨慎遵守规则。
一家研究机构苏黎世联邦理工学院(ETH Zurich)和保加利亚计算机科学、人工智能和技术研究所(INSAIT)以及瑞士初创公司LatticeFlow AI发布了一种新工具和框架,旨在帮助科技公司在处理欧盟《人工智能法案》时更加简单。这是第一个针对生成式AI的欧盟《人工智能法案》合规评估框架。
该工具根据安全等类别对AI模型进行0到1的评分,以确定它们是否符合法律要求。
大规模语言模型(LLM)评估工具检查了由阿里、Anthropic、OpenAI、Meta和Mistral AI开发的AI模型,这些模型均获得了0.75分或以上的平均得分。该工具考察了包括网络安全、环境福祉以及隐私和数据治理在内的多个领域。
研究发现,大多数的人工智能模型在歧视和网络安全方面表现不足。
例如,OpenAI的GPT-4 Turbo在歧视性输出方面的得分为0.46,而阿里云的得分为0.37。
但大多数模型在有害内容和毒性要求方面表现良好。
不遵守欧盟《人工智能法案》的公司可能面临最高3500万欧元或全球年营业额7%的罚款,然而由于缺乏详细的技術指南,科技公司提交证据可能会很困难,LLM检查工具的开发者表示。
“如果你想遵守欧盟人工智能法案,没有人知道如何提供支持符合该法案的技术证据。这是一个需要立即解决的巨大挑战,”LatticeFlow AI的首席执行官兼联合创始人Petar Tsankov在接受Euronews Next采访时说道。
“没有这个(指南),公司就不会在欧洲部署,因为他们不了解情况。你面临着严厉的立法,这可能会给你带来麻烦,而你不知道该如何应对。所以这对公司来说是非常不舒服的,”他说,并补充说他很快将与苹果和OpenAI会面,讨论如何遵守《人工智能法案》。
欧盟委员会启动了关于通用人工智能(GPAI)模型提供者行为准则的咨询程序,旨在监督《人工智能法案》的实施和执行。
欧盟委员会的一位发言人告诉Euronews Next,委员会欢迎该研究和AI模型评估平台,“作为将欧盟《人工智能法案》转化为技术要求的第一步,帮助AI模型提供商实施《人工智能法案》”。
“委员会已与利益相关者就行为准则展开工作,该准则将详细规定通用人工智能模型和具有系统性风险的通用人工智能模型应遵守的人工智能法案规则。供应商应能够依靠行为准则来证明其合规性,”发言人补充道。
除了发布人工智能法案的第一项技术解读外,还有一个免费的开源一个可以用来评估大规模语言模型是否符合欧盟要求的框架。
“我们邀请AI研究人员、开发者和监管者加入我们,共同推进这个不断发展中的项目,”瑞士苏黎世联邦理工学院教授兼保加利亚索非亚INSAIT创始人及科学总监Martin Vechev说道。