英语轻松读发新版了,欢迎下载、更新

Chatterbox Labs说,企业陷入了AI飞行员地狱。

2025-06-08 13:00:00 英文原文

面试在AI在企业中司空见惯之前,公司领导者必须承诺对AI模型的细微差别进行持续的安全测试制度。

这就是Chatterbox Labs首席执行官Danny Coleman和CTO Stuart Battersby的观点,他们与之交谈寄存器最终,为什么公司从AI试点测试转变为生产部署的原因很慢。

科尔曼说:“今天的企业采用只有10%。”“麦肯锡说是一个四亿美元的市场。如果您不断发布人们不知道安全使用的东西,或者他们甚至不仅知道企业影响,还不知道社会影响力,您将如何继续发展?”

他补充说:“企业中的人们,他们在没有管理和安全的情况下还没有为这项技术做好准备。”

一月份,咨询公司麦肯锡(McKinsey)发表了一份报告,研究了工作场所中人工智能(AI)未实现的潜力。

报告,“工作场所的超级机构:赋予人们充分利用AI的潜力”,发现对AI技术的兴趣和投资日益增长,但采用缓慢。

...您要做的是不相信模型供应商或护栏供应商的言辞,因为每个人都会告诉您它是超级安全的。

报告说:“领导者希望增加AI投资并加速发展,但他们会为如何使AI在工作场所安全而奋斗。”

科尔曼认为,传统的网络安全性和AI安全性正在发生冲突,但是大多数Infosec团队都没有赶上,缺乏背景来掌握AI独特的攻击表面。他指出,思科(Cisco)收购了强大的情报和帕洛阿尔托(Palo Alto)网络对保护AI的收购,这是一些采取正确方法的球员的例子。

巴特斯比说,想要大规模部署AI的组织的关键是,根据AI服务的实际作用,采用连续测试的政权。

他解释说:“因此,第一件事是考虑什么对您的用例有安全安全的。”“然后,您要做的就是不信任模型供应商或护栏供应商的言论,因为每个人都会告诉您这是超级安全的。”

Battersby认为,这很关键,因为即使是AI系统的授权用户也可以使其破坏事物。

科尔曼说:“我们试图与您联系的是内容安全过滤器,护栏还不够好。”“而且它不会很快改变。它需要更加分层。”

尽管这可能需要一些成本,但巴特斯比(Battersby)认为,持续的测试可以帮助降低成本 - 例如,表明较小,更实惠的模型对于特定用例同样是安全的。

完整的采访以下

关于《Chatterbox Labs说,企业陷入了AI飞行员地狱。》的评论


暂无评论

发表评论

摘要

Chatterbox Labs首席执行官Danny Coleman和CTO Stuart Battersby表示,公司领导者必须在广泛采用企业采用之前,必须在广泛采用企业领养之前进行量身定制的安全测试。由于安全和社会影响的关注,尽管预计4万亿美元的市场,但目前的AI企业AI采用率约为10%。麦肯锡的报告强调了对AI的兴趣日益增长,但采用率较慢。科尔曼(Coleman)强调了对AI部署中治理和安全性的需求,并指出传统的网络安全措施不足。Battersby倡导基于特定用例的连续测试,这表明它可以帮助识别负担得起的安全模型。