英语轻松读发新版了,欢迎下载、更新

开发人员的调查显示,随着使用情况的增加,对AI编码工具的信任正在下降

2025-07-31 22:39:22 英文原文

AI工具被软件开发人员广泛使用,但是这些开发人员及其经理仍在努力弄清楚如何确切地最好地使用工具,并且沿途出现了越来越多的痛苦。

那是从最新的调查通过社区和信息枢纽的49,000名专业开发人员,在开发人员工作流程中增加了大型语言模型(LLM)的影响。

调查发现,五分之一的开发人员在2025年的工作流程中使用了AI工具,该部分近年来一直在迅速增长。就是说:“对AI准确性的信任已从前几年的40%下降到今年的29%。”

这两个指标之间的差异说明了Github Copilot或Cursor等AI工具对专业的不断发展且复杂的影响。开发人员之间的辩论相对较少,即这些工具应该有用,但是人们仍在弄清楚最好的应用程序(和限制)是什么。

当被问及他们对AI工具的最大挫败感是什么时,有45%的受访者表示,他们在“ AI解决方案几乎是正确的,但不是完全”的问题上苦苦挣扎。”这是因为与明显错误的输出不同,这些可能会引入阴险的错误或其他难以立即识别且相对耗时的问题来进行故障排除,尤其是对于由于对AI的依赖而以虚假信心进行工作的初级开发人员。

结果,调查中有三分之一以上的开发人员“报告他们对堆栈溢出的某些访问是与AI相关问题的结果。”也就是说,他们从基于LLM的工具中接受的代码建议引入了他们不得不转向其他人解决的问题。

即使最近通过推理优化的模型进行了重大改进,这种不可靠的不可靠性不可能完全消失。这是预测技术如何运作的本质。

关于《开发人员的调查显示,随着使用情况的增加,对AI编码工具的信任正在下降》的评论


暂无评论

发表评论

摘要

AI工具是由软件开发人员广泛使用的,但仍在有效地利用它们的挑战中,导致了诸如AI准确性从40%到29%的信任下降。对49,000名专业开发人员的堆叠式调查显示,尽管80%使用AI工具,但最常见的挫败感是几乎正确但有缺陷的解决方案,导致隐藏的错误并增加了故障排除时间。在三分之一的开发人员报告中,由于AI生成的代码引起的问题,访问堆栈溢出的溢出,尽管最近改进了模型,但仍在挑战。

相关讨论