中国计划实现人工智能水印 - 连线

2024-09-27 07:00:00 英文原文

音频莫尔斯电码、加密的元数据信息或虚拟现实生成的场景中的标签。这些是中国政府希望人工智能公司和社交媒体平台使用的一些东西,以正确标记人工智能生成的内容并打击错误信息。

9月14日,中国国家互联网信息办公室起草了一项新规定,旨在告知人们某物是真实的还是人工智能。随着生成式人工智能工具变得越来越先进,辨别内容是否是人工智能生成的困难正在引发各种严重问题,从未经同意的色情内容到政治虚假信息。

中国并不是第一个解决这一问题的政权,今年三月通过的欧盟人工智能法案也要求类似的标签;加州本月通过了一项类似的法案。而中国此前的人工智能法规也简单提到了gen-AI标签的必要性。

但是,这项新政策概述了平台应如何实施人工智能水印的更多细节。它还首次承诺惩罚那些发布人工智能生成的内容并在未经适当分类的情况下传播很远的社交媒体平台。因此,如果人工智能公司和社交平台试图走捷径而不设置适当的标签功能,它们将面临更多的财务和法律风险。

凭借其人工智能立法的速度和主动性,中国希望成为塑造全球人工智能监管的霸权政权。南加州大学研究中国科技法规的法学教授张安吉拉表示,中国在人工智能内容审核方面绝对领先于欧盟和美国,部分原因是政府要求确保聊天机器人服务的政治一致性。她说,现在它又有了制定全球行业标准的机会,因为标签是就某一技术标准达成全球共识的一个有前景的领域。

监管人工智能比看起来更难

第一部分,新规草案要求人工智能服务提供者对人工智能内容添加显式标签。这意味着图像上的水印、人工智能生成的视频或虚拟现实场景开始时的显眼通知标签,或者人工智能生成的音频剪辑之前或之后的人工智能摩尔斯电码 ( ) 声音。

这些在不同程度上是该行业已经采用的做法。但该立法将把它们从自愿措施转变为法律责任,并将迫使那些标签机制松散的人工智能工具迎头赶上或面临政府处罚。

但显式标签的问题在于它们通常很容易更改,例如裁剪水印或编辑视频结尾。因此,该立法还要求公司在人工智能生成的内容文件的元数据中添加隐式标签,其中应包括具体提及首字母缩写 AIGC 以及有关制作和传播该文件的公司的加密信息。它还建议这些公司在内容中添加隐形水印,这样用户就不会意识到它们的存在。

实际上,在元数据中实施隐式标签需要更多公司合作并遵守共同规则。

元数据的可互操作标准要求它们能够跨人工智能模型和部署者、工具和平台工作,这是一项艰巨的任务,而且确实存在技术挑战和变革成本,见证人(Witness)的执行董事萨姆·格雷戈里(Sam Gregory)说。纽约。他说,这需要几年而不是几个月的时间。

但也许中国监管中最具挑战性的部分是如何让社交媒体平台负责查找人工智能生成的内容。该规定要求网络信息内容传输平台服务检查共享文件中是否存在隐式标签和人工智能生成痕迹。如果元数据表明,如果上传元数据的用户自愿披露,或者如果平台怀疑它是人工智能,则平台必须贴上gen-AI标签/标签。他们还需要将自己的信息添加到元数据中,以显示该内容在互联网上传播的路径。

这带来了许多新的挑战。首先,目前尚不清楚哪些平台将被法律认定为网络信息内容传输平台服务。中伦律师事务所驻上海合伙人司杰表示,一般来说,抖音、微信和微博等社交媒体平台最有可能被覆盖,但尚不清楚淘宝、京东等电子商务平台以及百度等搜索引擎是否也被覆盖。.

目前,中国流行的垂直视频平台允许用户在发布视频时将其标记为人工智能生成的视频。有些还允许用户将其他未标记的视频标记为人工智能,或主动查找这些视频,然后贴上标签,注明“该内容疑似由人工智能生成”。

但考虑到他们在中国境内外拥有数亿用户,法律要求对平台上的所有内容进行筛查是一个改变游戏规则的事情。斯说,如果微信或抖音需要检查上传到平台的每一张照片,并检查它们是否是由人工智能生成的,这将给公司的工作量和技术能力带来巨大的负担。中国最著名的两个社交视频平台抖音和快手拒绝对此事发表评论。

中国计划超越欧盟人工智能法案

欧盟人工智能法案通常被视为迄今为止监管人工智能最全面的法律框架,其中也有一篇文章解决了内容标签问题。它要求人工智能系统的输出以机器可读的格式进行标记,并且可以检测为人工生成或操纵的。当内容包含涉及公共利益的深度伪造视觉或文本信息时,还要求企业明确披露。

公司已经开始监管内容。Gregory 表示,许多西方公司已经开始采用 C2PA 标准,这是一种基于元数据的来源标准,有助于揭示人工智能在内容中的使用方式。内容来源和真实性联盟 (C2PA) 的支持者包括 Google、Meta、微软和 OpenAI。格雷戈里说,这是朝着正确方向迈出的一步,但它尚未广泛使用,许多平台还没有采用它。

乔治华盛顿大学政治学助理教授 Jeffrey Ding 表示,中国监管机构可能从欧盟人工智能法案中吸取了教训。中国政策制定者和学者表示,他们从欧盟法案中汲取了过去的灵感。

但与此同时,中国监管机构采取的一些措施在其他国家并不能真正复制。例如,中国政府要求社交平台对用户上传的内容进行人工智能筛选。丁说,这似乎是非常新的事情,并且可能是中国特有的。这在美国的背景下永远不会存在,因为美国以“平台不对内容负责”而闻名。

但是在线表达自由又如何呢?

人工智能内容标签规定草案正在征求公众意见,截止日期为10月14日,修改通过可能还需要几个月的时间。但中国企业没有理由推迟为该法案生效做好准备。

中国 AIGC 公司硅谷智能的创始人兼首席执行官司马华鹏表示,他的产品现在允许用户自愿选择是否标记生成的产品,该公司使用 Deepfake 技术生成 AI 代理、影响者以及复制生者和死者作为人工智能。但如果法律通过,他可能不得不将其改为强制性的。

如果某个功能是可选的,那么很可能公司不会将其添加到他们的产品中。但如果法律强制实施,那么每个人都必须执行,西马说。添加水印或元数据标签在技术上并不困难,但会增加合规公司的运营成本。

他说,这样的政策可以引导人工智能避免被用于诈骗或侵犯隐私,但它也可能引发人工智能服务黑市的增长,公司试图逃避法律合规性并节省成本。

让人工智能内容制作者承担责任和通过更复杂的追踪来监管个人言论之间也存在微妙的界限。

格雷戈里说,最大的潜在人权挑战是确保这些方法不会进一步损害隐私或言论自由。虽然隐式标签和水印可用于识别错误信息和不当内容的来源,但相同的工具可以使平台和政府对用户在互联网上发布的内容拥有更强的控制力。事实上,对人工智能工具如何失控的担忧一直是中国积极主动的人工智能立法工作的主要驱动力之一。

与此同时,中国人工智能行业已经落后于西方同行,因此正在敦促政府有更多的试验和发展空间。中国早期的生成人工智能法在第一份公开草案和最终法案之间被大幅淡化,取消了身份验证的要求并减少了对公司的处罚。

丁说,我们看到的是,中国政府确实在努力走好钢丝,既要确保我们保持内容控制,又要让这些战略空间中的人工智能实验室拥有创新的自由。这是另一种尝试。

关于《中国计划实现人工智能水印 - 连线》的评论


暂无评论

发表评论