作者:University of Florida
人工智能在接受书面作品时使讲师和雇主处于尴尬境地,让他们想知道:谁写了这本书?人类还是人工智能?
但是想象一下,每当有人提交写作时,可以消除猜测并实际上标记AI生成的文本的数字水印。佛罗里达大学工程学教授现在正在开发这项技术。
“如果我是一名学生,并且正在与Chatgpt一起写作作业,我不希望我的教授检测到这一点,”电气和计算机工程系的助理教授Yuheng Bu说。赫伯特·沃特尼姆工程学院。
BU和他的团队使用UF的超级计算机hipergerator,正在使用无形的水印方法大型语言模型旨在可靠地检测到AI生成的内容甚至更改或释义,同时保持写作质量。
大型语言模型,例如Google的双子座,是能够生成类似人类文本的AI平台。作家可以将提示提示添加到这些AI模型中,这些模型将使用数十亿个数据集的信息来完成作业。这在学术和专业环境中造成了一个重大问题。
为了解决这个问题,去年,英国雷丁大学的其他研究人员彼得·斯卡夫(Peter Scarfe)和其他研究人员在教室中测试了AI检测水平。他们创建了假学生资料,并使用基本AI生成的平台编写了作业。
“总的来说,AI提交的意见是无法检测到的,未发现94%的人,”那个研究著名的。“我们6%的检测率可能高估了我们检测现实世界中AI在考试中作弊的能力。”
低性能是由于大型语言模型的不断发展,这使得与人类所写的内容变得越来越没有区别。Bu说,结果,检测变得越来越困难,最终可能变得不可能。
水印通过主动嵌入专门设计的无形信号中的AI生成的文本来提供替代和有效的解决方案。这些信号是AI产生的可验证证据,可以可靠检测。
具体而言,BU的工作重点介绍了两个关键方面:保持大语言的质量模型 - 水印后产生的文本,并确保水印的鲁棒性针对各种修改。提出的自适应方法可确保与原始的大语言模型相比,人类读者嵌入的水印仍然无法察觉,保留了自然写作流程。
一些科技公司已经为AI生成的文本开发了水印。例如,Google DeepMind的研究人员去年创建了一个文本检索水印,并将其部署给数百万聊天机器人用户。
当被问及这些水印与他的项目之间的区别时,BU说,UF的方法“在一代人的一代中仅将水印应用于文本的一部分,因此我们相信它可以提高文本质量和更大的鲁棒性,以防止删除攻击。”
此外,BU的工作增强了系统对日常使用中常见文本修改的强度,例如同义词更换和释义,这通常使AI检测工具无效。即使用户完全重写了水印的文本,只要语义保持不变,水印仍可以很高的可能性检测到。平台本身应用水印钥匙。
Bu说:“应用水印的实体也持有检测所需的关键。如果文本由Chatgpt水标记,OpenAI将拥有验证水印所需的相应钥匙。”“寻求验证水印的最终用户必须从水印实体中获取钥匙。我们的方法采用了私钥机制,这意味着只有钥匙持有人才能检测和验证水印。”
BU说,现在的主要问题是最终用户如何获得该水印密钥。在当前框架中,教授必须联系嵌入水印以获取钥匙或使用的实体应用程序编程接口由实体提供的检测水印。谁持有关键的问题,因此,声称知识产权的能力对于大型语言模型水印的发展至关重要。
Bu说:“下一步至关重要的是建立一个综合的生态系统,该系统可以强制使用水印和密钥分布或开发不依赖秘密密钥的更先进的技术。”
BU已就AI水印撰写了多篇论文,包括国际机器学习会议的“大型语言模型的自适应文字水印”(ICML 2024),发表到arxiv去年的预印刷服务器和“ LLM水印的理论扎根框架:一种分配自适应方法”,也是可用的在arxiv。
Bu说:“水印有可能成为生成AI时代的信任和真实性的关键工具。”“我看到它们无缝地集成到学校中,以验证学术材料和跨数字平台,以区分真正的内容和错误信息。我希望广泛采用将简化验证并增强对我们每天所依赖信息的信心。”
更多信息:Yepeng Liu等人,大型语言模型的自适应文本水印,arxiv(2024)。doi:10.48550/arxiv.2401.13927
Haiyun He等,理论上扎根的LLM水印框架:一种分配自适应方法,arxiv(2024)。doi:10.48550/arxiv.2410.02890
引用:认为您可以用AI作弊吗?研究人员创建了水印来检测AI生成的写作(2025年,2月20日)检索2025年2月21日摘自https://techxplore.com/news/2025-02-ai-watermarks-generated.html
该文档具有版权。除了为私人研究或研究目的的任何公平交易外,没有未经书面许可,可以复制部分。内容仅用于信息目的。