作者:The Jakarta Post
2023年以来,中国倡导“全球人工智能治理倡议”,倡导以人为本、合作共赢的人工智能发展之路。
以人为本?:7月5日,在中国上海举行的世界人工智能大会(WAIC)期间,参观者在其展台上观看特斯拉的人形机器人擎天柱。(法新社/-)
在超级大国之间在人工智能(AI)的开发和接口方面展开激烈竞争的情况下,中国是否倾向于做出能够与其他国家趋同的承诺?取决于现有因素,共同点肯定是可能的,但不常见的鸿沟也可能会显着突出。一个
2023年以来,中国倡导“全球人工智能治理倡议”,倡导以人为本、合作共赢的人工智能发展之路。它强调国家主权,反对操纵和虚假信息,同时促进国家之间的相互尊重。它支持对个人数据的保护以及相关的风险评估和管理,并得到旨在人工智能透明度和可预测性的研究的支持。
“道德”一词进入其叙述中是为了防止歧视,并以人工智能开发的道德审查为基础。该倡议还为多个利益攸关方的声音和发展中国家的利益提供了空间。因此,我们同意联合国在建立人工智能治理国际框架、将发展、安全和治理相互联系起来方面发挥的作用。
2024 年 9 月发布的人工智能安全治理框架进一步支持了这一举措,该框架更具体地描述了挑战和必要的应对措施。该框架是一项政策工具,可以与具体法律或法规同时得到加强。该框架对各种关键风险进行了分类,并强调了应对这些风险的行动,同时还针对人工智能技术流中的各个利益相关者。
它列出了模型和算法、数据和人工智能系统产生的各种固有安全风险。人工智能应用中的风险,特别是网络空间风险、现实世界风险、认知风险和道德风险,加剧了这些风险。
算法(基本上是旨在产生各种结果的技术模型或数字公式)风险的一个例子是它们难以理解,并且必须对公众更容易解释和透明。数据带来的风险包括非法收集数据和侵犯知识产权 (IP)。人工智能系统的风险包括直接或间接的剥削。
无论您是想拓宽视野还是了解最新动态,“观点”对于任何寻求参与最重要问题的人来说都是完美的来源。
网络风险包括网络攻击,以及现实世界的风险,例如犯罪活动。认知风险是由单焦点(而不是复数)信息形成的,这限制了用户进行广泛分析的潜力,从而导致 –“茧”效应,而道德风险包括歧视和与信息知识相关的不断扩大的差距。