作者:Amanda Silberling
遗憾的是,“谨慎行动,红队行动”不如“快速行动,打破常规”那么吸引人。但三位人工智能安全倡导者向初创公司创始人明确表示,行动太快可能会导致道德问题从长远来看。
“我们正处于一个转折点,大量资源被转移到这个领域,”AI Now 研究所联合执行主任 Sarah Myers West 在TechCrunch 颠覆 2024。“我真的很担心,现在人们急于将产品推向世界,却没有考虑我们真正想要生活的世界这个遗留问题,并且正在生产的技术以何种方式为这个世界服务或积极损害它。”
这次谈话是在人工智能安全问题比以往任何时候都更加紧迫的时刻进行的。10月,一名自杀身亡的孩子的家人起诉聊天机器人公司Character.AI因其据称在孩子的死亡中所扮演的角色。
“这个故事确实证明了我们所看到的基于人工智能的技术的快速推出所带来的深远影响,”迈尔斯·韦斯特说。– 其中一些是长期存在的、几乎棘手的在线滥用内容审核问题。
但除了这些生死攸关的问题之外,人工智能的风险仍然很高,误传到侵犯版权。
“我们正在构建一种具有强大力量和能力的东西,能够真正影响人们的生活,”artist-forward 社交平台创始人张静娜说道卡拉。“当你谈论像Character.AI这样的东西时,它在情感上确实能与某人互动,我认为围绕产品的构建方式应该有护栏,这是有道理的。”
在 Meta 明确表示可以使用任何用户的公共帖子来训练其人工智能后,张的平台 Cara 开始腾飞。对于像张本人这样的艺术家来说,这个政策简直就是一记耳光。艺术家需要在网上发布他们的作品来吸引追随者并确保潜在客户,但通过这样做,他们的作品可以用来塑造人工智能模型,有一天可能会让他们失业。
“版权可以保护我们并让我们谋生,”张说。如果艺术品可以在线获取,并不意味着它本身是免费的,例如,数字新闻出版物必须获得摄影师的图像许可才能使用它们。– 当生成式人工智能开始变得更加主流时,我们看到它并不符合我们通常习惯的方式,即法律规定的方式。如果他们想使用我们的作品,他们应该获得许可。”
艺术家也可能受到 ElevenLabs 等产品的影响,ElevenLabs 是一家人工智能语音克隆公司,值得超过十亿美元。作为 ElevenLabs 的安全主管,Aleksandra Pedrazewska 有责任确保公司的先进技术不会被用于未经同意的深度假货等。
“我认为红队模式、了解不良行为以及生成式人工智能公司推出任何新产品所带来的意外后果再次成为[首要任务],”她说。–ElevenLabs 目前拥有 3300 万用户。这是一个庞大的社区,我们对产品所做的任何更改都会影响到它。”
Pedrazewska 表示,担任她职务的人可以更主动地维护平台安全的一种方法是与用户社区建立更密切的关系。
– 我们不能只在两个极端之间运作,一种是完全反人工智能和反 GenAI,另一种是有效地试图说服对该领域的零监管。我认为在监管方面我们确实需要折衷,”她说。
TechCrunch 有一份以人工智能为中心的时事通讯! 在这里注册每周三将其发送到您的收件箱。