悉尼,9 月 5 日(路透社) - 澳大利亚中左翼政府周四表示,随着企业和日常生活中人工智能工具的快速推出,计划引入有针对性的人工智能规则,包括人为干预和透明度。
工业和科学部长埃德·胡西克 (Ed Husic) 公布了 10 项新的人工智能系统自愿准则,并表示政府已就是否在未来高风险环境中强制实施这些准则展开为期一个月的磋商。
广告滚动继续
“澳大利亚人知道人工智能可以做出伟大的事情,但人们想知道如果事情出轨,是否有适当的保护措施,”胡西克在一份声明中说。“澳大利亚人希望对人工智能提供更强有力的保护,我们已经听到了,我们已经听到了。”
包含指南的报告表示,在人工智能系统的整个生命周期中根据需要实现人类控制至关重要。
报告称,“有意义的人类监督将使您能够在需要时进行干预,并减少发生意外后果和伤害的可能性。”它补充说,公司必须透明地披露人工智能在生成内容时的作用。
广告滚动继续
随着微软支持的 (MSFT.O) OpenAI 的 ChatGPT 和谷歌 (GOOGL.O) Gemini 等生成式人工智能系统的日益普及,世界各地的监管机构对人工智能工具造成的错误信息和虚假新闻表示担忧。
因此,欧盟于 5 月通过了具有里程碑意义的人工智能法律,对高风险人工智能系统施加了严格的透明度义务,这些义务比一些国家采取的宽松的自愿合规方法更为全面。
“我们认为不再有自我监管的权利。我认为我们已经跨过了这个门槛,”胡西克告诉美国广播公司新闻。
澳大利亚没有具体法律来监管人工智能,但在 2019 年推出了八项负责任使用人工智能的自愿原则。今年发布的一份政府报告称,当前的环境不足以应对高风险情况。
Husic 表示,只有三分之一使用人工智能的企业在安全、公平、问责和透明度等指标上负责任地实施人工智能。
“到 2030 年,人工智能预计将在澳大利亚创造多达 200,000 个就业机会......因此,澳大利亚企业有能力正确开发和使用该技术至关重要,”他说。
通过时事通讯 On the Campaign Trail 获取有关美国选举及其对世界的重要性的每周新闻和分析。在这里注册。
Renju Jose 悉尼报道;杰米·弗里德编辑
我们的标准:汤森路透信任原则。