英语轻松读发新版了,欢迎下载、更新

AI增强代码的可追溯性:开发人员指南

2024-10-13 17:07:56 英文原文

作者:Josep Prat

生成式人工智能的迅速普及已经渗透到全球各个商业领域。随着转录工具和内容创作工具的广泛应用,人工智能重塑未来的潜力是无穷无尽的。从软件工具开始AI将会使某些事物过时对软件开发和行业提出了深刻的挑战。

今天,行业面临着解决一个谜题的挑战:如果一名开发者利用AI修改了一段代码,这段代码还是原来的代码吗?其中一个重要的问题在于软件开发人员面临的挑战这是在不妨碍创造力或不越界侵犯版权或许可法律的情况下如何做到这一点。

到目前为止,官员们感到困惑。针对AI的技术,政策制定者和监管机构仍在努力完善相关的监管环境,以应对人工智能技术可能带来的伦理、安全和法律挑战。美国版权局已经探讨了AI生成的作品与现行版权法的交集问题。然而,仍需要建立一套全面的法规或法律框架,专门规定AI开发者使用受版权保护材料的方式。在英国,知识产权办公室(IPO)最近确认的它未能促成一项自愿行为准则的协议,该准则本应规范AI开发人员使用版权作品的行为。

在人工智能发展过程中,平衡知识产权与技术进步仍然是一个重要的问题。

AI与操作系统——天作之合

开源软件为训练AI模型提供了肥沃的土地,因为它没有与专有软件相关的限制。它给予AI访问许多标准代码的权限运行全球基础设施的基础平台。同时,它也暴露在AI产生的加速和改进之下,进一步增强了自己的能力。开源开发能力。

开发人员也大大受益于人工智能,因为他们可以提问、获得答案,并且无论对错,都可以将人工智能作为创建工作的基础。这一显著的生产力提升正在迅速加速和细化编码过程。开发人员可以利用人工智能快速解决琐碎任务,获取灵感,或者查找其他替代示例,这些示例可能是他们认为的最佳解决方案。

完全的确信和透明度

然而,并非全是好处。将AI集成到开源软件(OSS)中带来了复杂的许可问题。通用公共许可证(GPL)是一系列广泛使用的免费软件许可(还有其他类型的许可),或称为拷贝左(copyleft),它保证最终用户四项自由:运行、研究、分享和修改软件的自由。在这些许可下,任何对软件的修改都需要以相同的软件许可形式发布。如果一个代码是基于GPL许可的,那么对该代码所做的任何修改也必须使用GPL许可。

问题就在这里。除非完全透明地了解软件的训练过程,否则无法确定适当的许可要求或如何进行许可。如果要避免版权侵权和其他法律问题,可追溯性是至关重要的。此外还有一个伦理问题——如果开发人员修改了一段代码,它还是原来的代码吗?我们对此进行了更详细的讨论。这里.

可追溯性

所以迫在眉睫的问题是:开发人员可以采取哪些实际步骤来保护自己免受他们所生产代码的威胁,以及软件社区的其他成员——开源平台、监管机构、企业及人工智能公司等——可以在帮助他们实现这一目标方面发挥什么作用? 开源提供了透明度以支持完整性和可追溯性的信心,因为一切都是公开且可以被观察到的。专有软件中可能会出现错误或疏忽,但由于它是封闭系统,发现、理解和修复这些错误的机会几乎是零。在开源项目上工作的开发人员是在数百万社区成员的关注下进行操作的。社区需要明确来源的位置第三方代码的来源——它是人类还是人工智能?

基础

Apache软件基金会有一个规定说明项目的维护者不应该使用AI完成的源代码。AI可以协助他们,但贡献的代码是开发者的责任。如果出现问题,则由开发者解决。许多公司,包括原文:Aiven,有一个类似的协议。我们的指南规定开发人员只能使用预先批准的受限生成式AI工具。仍然,开发人员负责输出结果并需承担责任需要仔细审查和分析,而不能仅仅照单全收。这样我们才能确保符合最高标准。您的公司建立了哪些准则和标准,以及您如何帮助建立这些准则和标准?如果尚无相关规定,这些都是值得提出的问题。

此外,使用OSS的组织也可以通过采取措施来保护自己在过程中的风险发挥作用。这包括建立内部机制AI战术发现团队——专门创建以关注由人工智能带来的挑战和机遇。在一种情况下,我们的团队领导了一个项目来批评开源代码库,使用了诸如工具之类的工具软件组成分析分析由AI生成的代码库,将其与已知的开源仓库和漏洞数据库进行对比。

建立人工智能的信任根

尽管今天做出了努力,但在AI角色方面制定新的许可和法律仍然存在不足。软件开发需要时间达成共识是必要的,这一共识需要通过调查、审查和讨论来获得,以便明确人工智能的角色及其描述术语。这一挑战因人工智能的发展速度而加剧。开发及其在代码中的应用基础。这个过程比那些试图设置参数来控制它的人要快得多。

在评估AI是否在其输出中提供了复制的开源软件(OSS)代码时,需要考虑的因素包括适当的归属、许可证兼容性以及确保相应开源代码和修改内容的可用性。如果AI能够做到这一点也会很有帮助。公司开始在其源头添加可追溯性代码。这将创建一个信任根,有可能在软件开发中解锁显著的好处。

小组 创建于Sketch(或原生绘制)

关于《AI增强代码的可追溯性:开发人员指南》的评论


暂无评论

发表评论

摘要

生成式人工智能的迅速普及已经渗透到全球各个商业领域。除非完全透明地了解软件的训练方式,否则不可能确定合适的许可要求或如何进行许可。此外,还有一个伦理问题——如果开发者修改了一段代码,它还是原来的代码吗?创建AI的信任根 尽管目前做出了各种努力,围绕生成式人工智能在软件开发中的作用制定新的许可和法律还需要时间。同时,也有助于让AI公司开始在其源代码中增加可追溯性。