作者:Written by Webb Wright, Contributing Writer June 6, 2025 at 2:36 p.m. PT
作为生成的AI近年来已经蔓延了,对技术的滥用和滥用也有担忧。
类似的工具chatgpt可以产生现实的文本,图像,视频和语音。这些系统背后的开发人员向企业增长了生产力并增强了人类创造力,而许多安全专家和政策制定者担心即将发生错误信息的激增,除其他危险外,这些系统可以实现。
还:AI先驱Yoshua Bengio在旁边做什么,使AI更安全
Openai - 可以说是这场正在进行的AI种族的领导者 - 发布了一份年度报告,强调了不良演员使用其AI系统的无数方式。该公司在其报告的最新版本中写道:“ AI调查是一门不断发展的学科。”发行周四。“我们中断的每一次操作都使我们更好地了解威胁行为者如何试图滥用我们的模型,并使我们能够完善我们的防御能力。”
(披露:ZDNET的母公司齐夫·戴维斯(Ziff Davis)于2025年4月对OpenAI提起诉讼,指控它侵犯了Ziff Davis在培训和运营其AI系统方面的版权。)
新报告详细介绍了过去一年的10个虐待例子,其中4个似乎来自中国。
在新报告中概述的10个案例中,OpenAI概述了它如何检测和解决该问题。
例如,有可能中文起源的案例之一发现Chatgpt帐户以英语,中文和乌尔都语生成社交媒体帖子。一个“主要帐户”将发表一篇文章,然后其他人会发表评论,所有这些都旨在引起真实的人类参与的幻想,并引起政治上充电的话题的关注。
根据该报告,这些话题 - 包括台湾和美国国际开发署的拆除 - “都与中国的地质战略利益密切相符”。
另外: AI机器人刮擦您的数据?这种免费工具使那些讨厌的爬行者逐步划定
根据Openai的滥用,与中国有直接联系的另一个例子,涉及使用Chatgpt进行邪恶的网络活动,例如密码“ Bruteforcing” - 尝试大量AI生成的密码,以试图闯入在线帐户,并研究有关美国军事和国防行业的公开记录。
中国外交部否认了对Openai报告中概述的活动的参与,根据路透社。
据称,新报告中概述的AI的其他威胁用途与俄罗斯,伊朗,柬埔寨和其他地方的演员有关。
像chatgpt这样的文本生成模型可能只是AI幽灵误导的开始。
文本到视频模型,例如Google的VEO 3,可以越来越多地从自然语言提示中产生逼真的视频。同时,文本到语音模型Elevenlabs的新V3,可以轻松地产生类似人类的声音。
尽管开发人员通常在部署模型之前实施某种护栏,但正如Openai的新报告所表明的那样,坏演员在滥用和滥用方面变得越来越有创造力。两党锁定在猫和老鼠的游戏中,尤其是在美国目前没有强大的联邦监督政策。
想要更多有关AI的故事吗?报名,我们的每周新闻通讯。