面试在AI在企业中司空见惯之前,公司领导者必须承诺对AI模型的细微差别进行持续的安全测试制度。
这就是Chatterbox Labs首席执行官Danny Coleman和CTO Stuart Battersby的观点,他们与之交谈寄存器最终,为什么公司从AI试点测试转变为生产部署的原因很慢。
科尔曼说:“今天的企业采用只有10%。”“麦肯锡说是一个四亿美元的市场。如果您不断发布人们不知道安全使用的东西,或者他们甚至不仅知道企业影响,还不知道社会影响力,您将如何继续发展?”
他补充说:“企业中的人们,他们在没有管理和安全的情况下还没有为这项技术做好准备。”
一月份,咨询公司麦肯锡(McKinsey)发表了一份报告,研究了工作场所中人工智能(AI)未实现的潜力。
这报告,“工作场所的超级机构:赋予人们充分利用AI的潜力”,发现对AI技术的兴趣和投资日益增长,但采用缓慢。
...您要做的是不相信模型供应商或护栏供应商的言辞,因为每个人都会告诉您它是超级安全的。
报告说:“领导者希望增加AI投资并加速发展,但他们会为如何使AI在工作场所安全而奋斗。”
科尔曼认为,传统的网络安全性和AI安全性正在发生冲突,但是大多数Infosec团队都没有赶上,缺乏背景来掌握AI独特的攻击表面。他指出,思科(Cisco)收购了强大的情报和帕洛阿尔托(Palo Alto)网络对保护AI的收购,这是一些采取正确方法的球员的例子。
巴特斯比说,想要大规模部署AI的组织的关键是,根据AI服务的实际作用,采用连续测试的政权。
他解释说:“因此,第一件事是考虑什么对您的用例有安全安全的。”“然后,您要做的就是不信任模型供应商或护栏供应商的言论,因为每个人都会告诉您这是超级安全的。”
Battersby认为,这很关键,因为即使是AI系统的授权用户也可以使其破坏事物。
科尔曼说:“我们试图与您联系的是内容安全过滤器,护栏还不够好。”“而且它不会很快改变。它需要更加分层。”
尽管这可能需要一些成本,但巴特斯比(Battersby)认为,持续的测试可以帮助降低成本 - 例如,表明较小,更实惠的模型对于特定用例同样是安全的。
完整的采访以下