作者:Christopher Ingraham
一位领先的错误信息专家被指控引用不存在的消息来源来为明尼苏达州禁止选举错误信息的新法律辩护。
教授杰夫·汉考克斯坦福大学社交媒体实验室的创始主任,根据他的斯坦福传记,他“因研究人们如何利用技术进行欺骗而闻名”。
应明尼苏达州总检察长基思·埃里森的要求,汉考克最近提交了一份宣誓书,支持新立法该法案禁止使用所谓的“深度造假”技术来影响选举。法律正在在联邦法院受到质疑保守派 YouTuber、亚历山大州共和党众议员玛丽·弗兰森 (Mary Franson) 因违反第一修正案言论自由保护而被指控。
汉考克支持深度打假法的专家声明引用名录学术著作众多。但其中一些来源似乎并不存在,对法律提出质疑的律师表示,这些来源似乎是由 ChatGPT 等人工智能软件编造的。
例如,该声明引用了一项题为“深度伪造视频对政治态度和行为的影响”的研究,并表示该研究发表在信息技术与政治杂志2023 年。但该杂志上没有出现该名称的研究;学术数据库没有任何现有记录;引用的特定期刊页面包含两篇完全不同的文章。
“该引文带有人工智能 (AI) 的特征——幻觉,”表明至少该引文是由 ChatGPT 这样的大型语言模型生成的,”原告的律师写道。“原告不知道汉考克的声明中如何出现这种幻觉,但它使整个文件受到质疑。”
另外,自由主义者法学教授尤金·沃洛克发现汉考克声明中对一项据称题为“深度造假和真实性幻觉:接受错误信息背后的认知过程”的研究的另一段引用似乎并不存在。
如果这些引文是由人工智能软件生成的,那么汉考克 12 页声明的其他部分也可能是这样。目前还不清楚这些不存在的引用是汉考克、助手还是其他人插入的。汉考克和斯坦福社交媒体实验室都没有回复多次的置评请求。埃里森的办公室也没有。
该案原告的律师弗兰克·贝德纳兹 (Frank Bednarz) 表示,深度造假法的支持者认为,“与其他在线言论不同,人工智能生成的内容应该无法通过事实核查和教育来反击。”一个
不过,他补充道,“通过向法庭指出人工智能生成的捏造行为,我们证明了对虚假言论的最佳补救措施仍然是真实言论,而不是审查制度。”
人工智能软件的笨拙使用导致很多的 尴尬 整个法律体系最近几年。例如,2023 年,两名纽约律师受到联邦法官的制裁提交一份摘要,其中引用了 ChatGPT 编造的不存在的法律案例。
参与之前 ChatGPT 事故的一些律师声称自己不知情,称他们不知道该软件的局限性或其捏造事实的倾向。但汉考克是技术和错误信息方面的领先专家,这使得虚假引用尤其令人尴尬。
他的声明最后声明如下:“我声明,我在本文件中所述的所有内容均真实且正确,如有伪证,愿受处罚。”
我们的故事可以在知识共享许可 CC BY-NC-ND 4.0 下在线重新发布或印刷。我们要求您仅针对样式或缩短内容进行编辑,提供正确的归属并链接到我们的网站。美联社和盖蒂图片不得重新发布。请参阅我们的重新发布指南使用任何其他照片和图形。