人工智能扩散最受吹捧的好处之一是它如何帮助开发人员完成琐碎的任务。然而,新的研究表明,安全领导者并不完全同意,63% 的人考虑禁止在编码中使用人工智能,因为它会带来风险。
做出决定的比例更大,为 92%- 接受调查的制造商对在其组织中使用人工智能生成的代码感到担忧。他们的主要担忧都与输出质量的下降有关。
人工智能模型可能是在过时的开源库上进行训练的,开发人员可能很快就会过度依赖使用赖以生存的工具更容易,这意味着糟糕的代码在公司的产品中激增。
参见:面向开发人员的顶级安全工具
此外,安全领导者认为人工智能生成的代码不太可能接受质量检查与手写线条一样严谨。开发人员可能不会对人工智能模型的输出感到负责,因此也不会感到确保其完美的压力。
TechRepublic 与代码安全公司 Sonar 的首席执行官 Tariq Shaukat 进行了交谈,上周,他听到越来越多的公司使用人工智能编写代码,遇到中断和安全问题。
总的来说,这是由于审查不足,或者是因为公司没有实施他说,要么是因为开发人员对人工智能编写的代码的审查少于对自己代码的审查,要么是稳健的代码质量和代码审查实践。
当被问及有缺陷的人工智能时,一个常见的说法是它不是机器身份管理提供商 Venafi 发布的新报告《组织努力保护人工智能生成的开源代码》基于对 800 名员工的调查美国、英国、德国和法国的安全决策者。研究发现,尽管安全专业人士存在担忧,但目前 83% 的组织正在使用人工智能来开发代码,而且超过一半的组织采用这种做法很常见。
人工智能中毒和模型逃逸等新威胁已经开始出现Venafi 首席创新官 Kevin Bocek 在报告中表示,虽然开发人员和新手正在使用大量的生成式人工智能代码,但其方式仍有待理解。
虽然许多人已经考虑禁止人工智能辅助72% 的人认为他们别无选择,只能继续这种做法,这样公司才能保持竞争力。据 Gartner 称,到 2028 年,90% 的企业软件工程师将使用 AI 代码助手,并在此过程中获得生产力提升。
参见:31% 的组织使用生成式 AI 要求它编写代码(2023 年)
Venafi 报告中三分之二的受访者表示,他们发现在确保产品安全性时无法跟上生产力极高的开发人员的步伐,66% 的人表示他们无法管理组织内人工智能的安全使用,因为他们无法了解人工智能的使用地点。
因此,安全领导者担心让人工智能的使用所带来的后果潜在的漏洞被忽视,59% 的人因此失眠。近 80% 的人认为,人工智能开发代码的激增将导致安全清算,因为重大事件会促使其处理方式进行改革。
Bocek 在新闻稿中补充道:安全团队陷入困境在人工智能编写代码的新世界中,这是一个艰难的处境。开发人员已经被人工智能赋予了强大的力量,并且不会放弃他们的超能力。攻击者正在渗透到我们的队伍中,最近长期干预开源项目和朝鲜渗透 IT 的例子只是冰山一角。