作者:PYMNTS
欧洲科技领袖警告不要抑制人工智能创新,而SAP首席执行官则对欧盟法规提出反对。同时,美国食品药品监督管理局推出新的医疗保健人工智能监管措施,主要科技公司则在努力满足欧洲合规标准。测试显示,即使像OpenAI、Meta和Anthropic这样的顶级人工智能模型,在网络安全和偏见预防等关键领域也未能达到欧盟的要求,这突显了快速的人工智能发展与监管控制之间的紧张关系。
据报道称,SAP首席执行官克里斯蒂安·克莱因周二(10月22日)表示,在欧洲过度监管人工智能可能会阻碍该地区与美国和中国等全球科技巨头的竞争。他的评论是在欧洲政策制定者考虑实施全面的人工智能监督措施之际提出的。
自2020年以来领导欧洲最大软件公司的Klein在一次讲话中说CNBC采访他主张关注人工智能的结果而非全面的技术限制。
最近,SAP在进行重大重组(影响全球8,000名员工)的同时,转向了人工智能的整合。Klein的态度反映了欧洲科技领导者日益增长的担忧,即监管约束可能使该地区的新兴人工智能行业,尤其是其初创生态系统,在日趋激烈的全球市场中处于不利地位。
欧盟已成为首个实施全面人工智能法规的主要力量。新的框架对高风险的人工智能系统进行了严格的监管,要求透明度和人类监督。虽然旨在保护公民的权利,但此举引发了关于其可能对欧洲技术竞争力产生的影响的辩论。
美国食品和药物管理局公布了全面措施为了加强对医疗领域人工智能的监管,标志着对医学AI工具的监管方式将发生重大变化。该机构的新框架,详细的在最近的一篇《美国医学会杂志》(JAMA)文章中,旨在平衡快速的技术创新与患者安全关注点。
自1995年批准第一个AI医疗设备以来,美国食品药品监督管理局(FDA)已批准了近1000种基于人工智能的产品,主要集中在放射学和心脏病学领域。现在,该机构正面临前所未有的AI提交申请激增,仅药物开发领域的申请在过去一年中就增加了十倍。
美国食品和药物管理局的方法核心是一个五点行动计划,重点是人工智能产品的生命周期管理。该战略强调在部署后持续监测AI系统,这对于像大型语言模型这样的复杂工具尤为重要,因为这些工具可能在临床环境中产生不可预测的输出。
该机构正在采用基于风险的监管框架,对心脏除颤器等关键应用实施更严格的监督,同时对行政类人工智能工具保持较为宽松的监管。国际合作在FDA的战略中占据重要地位,该机构正与全球监管机构合作以建立统一的标准。
这一监管演变随着人工智能在医疗领域的日益渗透而出现,从药物发现到心理健康应用,标志着医学技术治理新时代的到来。
主要的人工智能公司面临满足欧盟监管要求的重大障碍,在网络安全和偏见预防等关键领域,领先模型显示出弱点。路透社报道.
一家瑞士初创公司LatticeFlow AI开发的新合规测试框架揭示了可能使科技巨头面临巨额罚款的潜在漏洞。
评估工具根据即将出台的欧盟法规对AI模型进行了评估,发现尽管像Meta、OpenAI和Anthropic这样的公司在总体评分上表现强劲,但具体存在的不足可能会带来高昂的成本。OpenAI的GPT-3.5 Turbo在歧视性输出措施上的得分仅为0.46,而Meta的Llama 2在网络安全韧性方面的得分为0.42。
Anthropic的Claude 3 Opus表现最佳,总评分为0.89。然而,即使是高性能的模型也可能需要进行重大调整以符合欧盟全面的《人工智能法案》,该法案对不符合规定的公司可处以上一年度全球营业额7%的罚款。
这些发现是在关键时刻出现的,当时欧盟正努力在2025年春季之前制定其人工智能法规的执行指南。LatticeFlow框架得到了欧盟官员的欢迎,被视为“第一步”,为公司提供了一条符合新法律的路线图,并强调了将人工智能开发与监管要求保持一致所面临的挑战。
订阅每日PYMNTS人工智能报道 AI通讯newsletter在中文语境中通常被理解为“AI通讯简报”或“AI新闻通讯”,考虑到简洁性和通用性,这里采用“AI通讯”作为翻译。如果需更具体表达其内容属性,可以译作“AI新闻简报”。根据要求,若无具体内容则输出原文: AI通讯简报.