英语轻松读发新版了,欢迎下载、更新

Endor Labs:AI透明度与“开放洗”

2025-02-24 18:18:27 英文原文

作者:Ryan Daws

随着AI行业专注于透明度和安全性,围绕开放性的真正含义的辩论正在加剧。开源安全公司的专家Endor Labs权衡了这些紧迫的主题。

Endor Labs的高级产品营销经理Andrew Stiefel强调了将从软件安全性学习的经验教训应用于AI系统的重要性。

美国政府2021年执行命令改善美国的网络安全包括一项规定,要求组织为出售给联邦政府机构的每种产品生产软件材料清单(SBOM)。

SBOM本质上是一个库存,详细介绍了产品中的开源组件,有助于检测漏洞。Stiefel认为,将这些相同的原则应用于AI系统是合乎逻辑的下一步。 

他解释说,为公民和政府雇员提供更好的透明度,不仅可以提高安全性。

AI模型开放是什么意思? 

Endor Labs的高级产品经理Julien Sobrier在正在进行的有关AI透明度和开放性的讨论中增加了关键背景。Sobrier打破了将AI系统分类为真正开放的固有的复杂性。

AI模型由许多组件组成:训练集,训练和测试模型的权重和程序等。重要的是要使整个链条作为开放源代码可用,以打开该模型。。目前,这是一个广泛的定义。 

索布里尔(Sobrier)指出,主要参与者缺乏一致性,这导致了对该术语的困惑。

``在主要参与者中,对开放的定义的担忧始于Openai,Meta现在是新闻中的骆驼即使这更开放,模型也是如此。我们需要对开放模型含义的共同理解。我们想提防任何开放式洗净,正如我们使用免费的开源软件看到的那样。 

Sobrier强调的一个潜在的陷阱是越来越普遍的开放洗净的做法,组织声称透明度在施加限制的同时声称透明度。

``通过提供付费版本的开源项目(例如数据库),我们看到许多开源项目的转变:源代码仍然开放,但他们添加了许多商业广告限制 

Sobrier警告说,Meta和其他开放LLM提供商可能会走这条路线以保持竞争优势:对模型的开放性更高,但阻止竞争对手使用它们。”

DeepSeek旨在提高AI透明度

DeepSeek,崛起的之一尽管有争议AI行业的参与者采取步骤通过制作部分模型和代码开源来解决其中一些问题。此举因提高透明度而在提供安全见解的同时受到赞扬。 

安德鲁·斯蒂夫尔(Andrew Stiefel)说:``DeepSeek已经发布了模型及其权重。``下一步行动将为他们的托管服务提供更大的透明度,并将可见性如何微调并在生产中运行这些模型。”

Stiefel指出,这种透明度具有重大的好处。这将使社区更容易审核其系统的安全风险,以及个人和组织在生产中运行自己的DeepSeek版本。” 

除了安全性之外,DeepSeek还提供了有关如何大规模管理AI基础设施的路线图。

``从透明方面,我们会看到DeepSeek如何运行其托管服务。这将有助于解决安全问题,这些问题被发现后,他们将一些Clickhouse数据库留下了无抵押。

Stiefel强调了Deepseek的实践,例如Docker,Kubernetes(K8S)和其他基础架构AS-Code(IAC)配置可以使创业公司和业余爱好者能够构建类似的托管实例。” 

开源AI现在很热

DeepSeek的透明性计划与开源AI的更广泛趋势保持一致。IDC的一份报告显示,有60%的组织选择了开源AI模型,而不是其生成AI(Genai)项目的商业替代品。 

Endor Labs的研究进一步表明,组织平均每个应用程序使用7到21个开源模型。推理很明确:利用最佳模型来完成特定任务并控制API成本。

Stiefel说:“截至2月7日,Endor Labs发现,已经从原始的DeepSeek R1型号中培训或蒸馏了3500多个型号。”这既显示了开源AI模型社区中的能量,又显示了为什么安全团队需要了解模型的血统及其潜在风险。 

对于Sobrier而言,开源AI模型的越来越多的采用加剧了评估其依赖性的需求。

我们需要将AI模型视为我们软件依赖的主要依赖性。公司需要确保法律允许使用这些模型,但也可以在运营风险和供应链风险方面安全使用,就像开源库一样。

他强调,任何风险都可以扩展到培训数据:他们需要确信用于培训LLM的数据集没有中毒或具有敏感的私人信息。” 

建立系统的AI模型风险的系统方法 

随着开源AI采用的加速,管理风险变得越来越重要。Stiefel概述了一种系统的方法,该方法围绕三个关键步骤: 

  1. 发现:检测您当前组织的AI模型。 
  2. 评估:审查这些模型是否存在潜在风险,包括安全和运营问题。 
  3. 回复:设置并强制执行护栏以确保采用安全和安全的模型。 

Stiefel说:``关键是在实现创新和管理风险之间找到适当的平衡。”我们需要给软件工程团队纬度进行实验,但必须完全可见。安全团队需要视线和洞察力才能采取行动。 

Sobrier进一步辩称,社区必须制定安全建立和采用AI模型的最佳实践。需要共享的方法来评估跨越参数的AI模型,例如安全性,质量,操作风险和开放性。

超越透明度:负责人的AI未来的措施 

为了确保AI的负责任增长,该行业必须采用跨多个向量运行的控制: 

  • SaaS型号:维护员工使用托管模型。
  • API集成:开发人员将第三方API(例如DeepSeek)嵌入应用程序中,该应用程序通过OpenAI集成等工具,只能使用两行代码切换部署。
  • 开源模型:开发人员利用社区建造的模型或从DeepSeek等公司维护的现有基金会中创建自己的模型。

面对快速的AI进展,Sobrier警告了自满。他建议,社区需要建立最佳实践来开发安全和开放的AI模型。 

正如Stiefel简要概述的那样:考虑到多个向量的安全性,并为每个媒介实施适当的控件。

参见:AI在2025年:目的驱动模型,人类整合等等

想从行业领导者那里了解有关AI和大数据的更多信息吗?查看AI和大数据博览会在阿姆斯特丹,加利福尼亚和伦敦举行。综合事件与其他领先活动共同分居,包括智能自动化会议,,,,,,,,数字转换周, 和网络安全和云博览会

探索由TechForge提供支持的其他即将举行的企业技术活动和网络研讨会这里

关于《Endor Labs:AI透明度与“开放洗”》的评论


暂无评论

发表评论

摘要

Endor Labs的专家正在辩论AI中“开放性”的真正含义,因为该行业专注于透明度和安全性。安德鲁·斯蒂夫尔(Andrew Stiefel)强调将软件安全原则应用于AI系统,并主张AI相当于软件材料清单(SBOM),以提高对模型数据集和培训过程的可见性。朱利安·索布里尔(Julien Sobrier)强调了定义“开放” AI模型的矛盾之处,强调需要在整个开发链中对开源组件的需求,并警告“开放洗净”。DeepSeek通过其模型朝着更大的透明度迈进,被视为在管理安全风险和促进初创企业之间的创新方面迈出的一步。开源AI模型的趋势正在引起关注,但它也需要采取系统的风险管理方法,包括发现,评估和安全采用的响应措施。