作者:Debra Cassens Weiss
人工智能和机器人技术
如果您不确定您如何以及何时引用人工智能产生的内容,那么根据律师事务的专家说,新的引用规则不太可能消除混乱。(howchou摄影,pd不合格(书),通过Wikimedia Commons)
更新:如果您不确定您如何以及何时引用人工智能产生的内容,那么根据律师事务的专家说,新的引用规则不太可能消除混乱。
第22版的蓝皮书:统一的引文系统,在5月发布,包括一项新规则18.3,用于引用生成AI的输出。批评家认为,新规则在构想和执行中都是有缺陷的,律师报告。
批评家包括路易斯维尔大学路易斯·D·布兰代斯法学院教授苏珊·坦纳(Susan Tanner中等的。
该规则要求作者引用生成AI的输出,例如ChatGpt对话或Google搜索结果,将该输出的屏幕截图保存为PDF。该规则有三个部分,用于大型语言模型,搜索结果和AI生成的内容,每个部分的引文规则略有不同。
坦纳说,一个问题是,该规则将AI视为可提取的权威,而不是研究工具。
塔纳写道,AI引文的明智方法是什么样的?”首先,认识到,在99%的情况下,我们根本不应该引用AI。我们应该引用经过验证的资源AI帮助我们找到。
坦纳说,在极少数情况下应引用AI输出,作者应该记住,引用记录了生成型AI所说的话,而不是所说的事实。她提供了此示例:``OpenAi,chatgpt-4,解释肯塔基州的传闻规则(2024年10月30日)(与作者交谈的对话伪影)(未引用有关内容的准确性)。
爱达荷大学法学院的临床法学教授杰西卡·R·冈德(Jessica R.SSRN。
如果作者想通过指出该工具制作的披萨食谱来突出生成AI工具的不可靠性,该食谱包括胶水,以防止奶酪从切片中掉下来,引用并保留生成的AI输出,这是适当的。”
法律与AI研究所研究主任CullenOâKeefe发现了另一个问题。该规则区分了大型语言模型和AI生成的内容,但是大语模型生成的内容是AI生成的内容。
在替代博客的文章中Jural Networks,他建议对管理AI生成的内容的规则的一种解释是,它适用于图像,音频录音和声音等内容。
他还看到有关是否使用公司名称以及模型名称以及何时需要发电日期和所使用的提示的不一致之处。
``我要对编辑人员过于苛刻,我赞扬他们直接解决这个问题。”但是该规则缺乏典型的精确度蓝皮书是(在)著名的
9月25日下午2:34更新准确地引用了关于大语言模型的Cullen Okeef的观点。