作者:Written by David Gewirtz, Senior Contributing Editor Dec. 22, 2024 at 7:30 a.m. PT
在这篇由两部分组成的分析的第一篇文章中,我们研究了 谁拥有代码由 ChatGPT 等人工智能聊天机器人创建,并探讨了使用人工智能生成代码的法律影响。
第一部分:谁拥有代码?如果 ChatGPT 的 AI 帮助您编写应用程序,它仍然属于您吗?
现在,我们将讨论责任和风险的问题。
为了进行这次讨论,我求助于律师和长期互联网新闻协会成员 理查德·桑塔莱萨。凭借其科技新闻背景,桑塔莱萨从法律和技术角度理解这些东西。(他是该组织的创始成员之一 智能边缘法律集团.)
他建议:“在法庭审理案件最终明确回答这个问题之前,人工智能生成代码的法律含义与人类创建的代码相同。”
他继续说道,请记住,人类生成的代码远非没有错误。永远不会有服务级别协议保证代码是完美的或用户将不间断地使用服务。
另外: ChatGPT 和新的人工智能正在以令人兴奋和可怕的方式对网络安全造成严重破坏
Santalesa 还指出,软件的所有部分完全由本土开发的情况很少见。“大多数程序员使用的 SDK 和代码库虽然未经他们亲自审查或分析,但仍然依赖,”他说。“我认为人工智能生成的代码——暂时——将与法律影响放在同一桶中。”
肖恩·奥布莱恩 (Sean O'Brien),耶鲁大学法学院网络安全讲师,耶鲁大学隐私实验室,指出了开发人员不可否认的令人担忧的风险:
如果我们谈论的是 ChatGPT 和 Copilot 等工具,那么人工智能提示可能输出专有代码的可能性非常高,这些工具已经接受过大量开源和专有代码的训练。
我们不确切知道使用什么代码来训练聊天机器人。这意味着我们不知道 ChatGPT 和其他类似工具输出的代码段是由 AI 生成的,还是仅仅从它在训练过程中摄取的代码中得到回显。
如果您是一名开发人员,那么是时候做好准备了。这是奥布莱恩的预测:
我相信很快就会出现一个与专利流氓类似的完整的流氓子行业,但这一次是围绕人工智能生成的作品。随着越来越多的作者使用人工智能驱动的工具在专有许可下发布代码,就会创建一个反馈循环。将会有一些被专有代码污染的软件生态系统,这些软件生态系统将成为有进取心的公司要求停止的对象。
奥布莱恩一提到巨魔因素,我脖子后面的汗毛就竖起来了。这将会变得非常非常混乱。
加拿大律师罗伯特·皮亚森丁加拿大商业律师事务所 McMillan LLP 技术小组的合伙人也指出,除了受版权保护的作品外,聊天机器人还可以接受开源作品和合法来源的培训。所有这些训练数据可能包括有缺陷或有偏见的数据(或算法)以及公司专有数据。
另外: 人工智能学者加里·马库斯为人工智能监管机构提出了强有力的理由
Piasentin 解释道:“如果人工智能利用了不正确、有缺陷或有偏见的信息,人工智能工具的输出可能会引起各种潜在的索赔,具体取决于输出可能造成的潜在损害或伤害的性质(无论是直接还是伤害)间接)”。
这是另一个想法:有些人会试图破坏训练语料库(人工智能用来提供结果的知识来源)。人类所做的事情之一就是找到与系统博弈的方法。因此,不仅会有大批法律巨魔试图找到人们起诉,还会有黑客、罪犯、流氓国家、高中生和疯子——他们都试图将错误的数据输入到他们能找到的每个人工智能中,要么是为了好玩,要么是为了更邪恶的原因。
也许我们不应该过多关注黑暗面。
不过,没有一位律师讨论如果人工智能生成的代码导致灾难性结果,谁该承担责任。
例如:提供产品的公司分担一些责任,例如选择一个已知缺陷的库。如果产品使用具有已知漏洞的库进行交付,并且该产品引发了导致有形损害的事件,那么谁应该承担该故障的责任?产品制造商、图书馆编码员还是选择产品的公司?
通常,这三个都是。
现在将人工智能代码添加到其中。显然,大部分责任落在选择使用人工智能生成的代码的编码人员的肩上。毕竟它是众所周知,该代码可能无法工作并且需要进行彻底的测试。
在一场全面的诉讼中,索赔人是否还会追究生产人工智能的公司,甚至是那些从中获取内容来训练这些人工智能的组织(即使是在未经许可的情况下进行的)?
正如每位律师告诉我的那样,迄今为止判例法很少。直到出现问题、双方最终上法庭并得到彻底裁决之前,我们不会真正知道答案。
我们正处于未知的水域。目前我最好的建议是彻底测试您的代码。测试,测试,然后再测试一些。
您可以在社交媒体上关注我的日常项目更新。请务必在 Twitter 上关注我:@大卫格维茨,在 Facebook 上Facebook.com/DavidGewirtz,在 Instagram 上Instagram.com/DavidGewirtz,以及 YouTube 上的YouTube.com/DavidGewirtzTV。.