AI工具被软件开发人员广泛使用,但是这些开发人员及其经理仍在努力弄清楚如何确切地最好地使用工具,并且沿途出现了越来越多的痛苦。
那是从最新的调查通过社区和信息枢纽的49,000名专业开发人员,在开发人员工作流程中增加了大型语言模型(LLM)的影响。
调查发现,五分之一的开发人员在2025年的工作流程中使用了AI工具,该部分近年来一直在迅速增长。就是说:“对AI准确性的信任已从前几年的40%下降到今年的29%。”
这两个指标之间的差异说明了Github Copilot或Cursor等AI工具对专业的不断发展且复杂的影响。开发人员之间的辩论相对较少,即这些工具应该有用,但是人们仍在弄清楚最好的应用程序(和限制)是什么。
当被问及他们对AI工具的最大挫败感是什么时,有45%的受访者表示,他们在“ AI解决方案几乎是正确的,但不是完全”的问题上苦苦挣扎。”这是因为与明显错误的输出不同,这些可能会引入阴险的错误或其他难以立即识别且相对耗时的问题来进行故障排除,尤其是对于由于对AI的依赖而以虚假信心进行工作的初级开发人员。
结果,调查中有三分之一以上的开发人员“报告他们对堆栈溢出的某些访问是与AI相关问题的结果。”也就是说,他们从基于LLM的工具中接受的代码建议引入了他们不得不转向其他人解决的问题。
即使最近通过推理优化的模型进行了重大改进,这种不可靠的不可靠性不可能完全消失。这是预测技术如何运作的本质。