Ryan Daws 是 TechForge Media 的高级编辑,拥有超过十年的经验,擅长打造引人入胜的故事并让复杂的话题易于理解。他撰写的文章和对业内领导者的访谈使他在 Onalytica 等组织的评选中获得了关键影响力人物的认可。在他的领导下,出版物因卓越的内容质量和表现而受到 Forrester 等分析公司的赞誉。你可以在 X (@gadget_ry) 或 Mastodon (@gadgetry@techhub.social) 上与他联系。
恩多实验室已经开始根据安全、流行度、质量和活动对AI模型进行评分。
被称为“AI模型恩多得分”这一独特功能旨在通过提供简洁的评分来简化识别当前在Hugging Face(一个用于分享大型语言模型、机器学习模型和其他开源AI模型和数据集的平台)上最安全的开源AI模型的过程。
该公告正值开发人员越来越多地转向Hugging Face等平台,以获取现成的AI模型,这反映了早期易于获得的开源软件(OSS)的情况。此次新发布改进了人工智能治理通过允许开发人员使用AI模型“从零开始”,一个迄今为止难以实现的目标。
Endor Labs的联合创始人兼首席执行官Varun Badhwar表示:“我们的使命始终是保护你的代码所依赖的一切,而AI模型是完成这一关键任务的下一个伟大前沿。
每个组织都在尝试使用AI模型,无论是为了驱动特定应用程序还是建立整个基于AI的业务。安全措施必须跟上步伐,这里有一个难得的机会可以从零开始,避免未来的风险和高昂的维护成本。
Endor Labs 的创始工程师 George Apostolopoulos 补充说:“目前每个人都正在试验人工智能模型。有些团队在构建全新的基于人工智能的业务,而另一些团队则在寻找方法将‘由人工智能提供支持’的标签贴到他们的产品上。可以肯定的是,你的开发人员正在玩弄人工智能模型。”
然而,这种便利并非没有风险。Apostolopoulos警告说,当前的环境类似于“蛮荒西部”,人们在获取符合自己需求的模型时,并不考虑潜在的安全漏洞。
Endor Labs的方法将AI模型视为软件供应链中的依赖项
“Endor Labs的使命是‘保障你代码所依赖的一切’,”Apostolopoulos表示。这种视角使组织能够像对待其他开源组件一样,对AI模型应用类似的风控评估方法。
恩多用于评估AI模型评分的工具重点关注几个关键的风险领域:
- 安全漏洞:预训练模型可能包含恶意代码或模型权重中的漏洞,在集成到组织环境中时可能导致安全漏洞。
- 法律和许可问题:遵守许可条款至关重要,特别是考虑到AI模型及其训练数据集复杂的传承关系。
- 操作风险:依赖预训练模型会创建一个复杂的图形,这可能会难以管理和保护。
为了应对这些问题,Endor Labs的评估工具对Hugging Face上的AI模型应用了50个现成的检查。该系统根据维护者数量、企业赞助、发布频率和已知漏洞等因素生成一个“Endor Score”。
系统中评分AI模型的正面因素包括使用安全的权重格式、存在许可信息以及高下载和参与度指标。负面因素则包括文档不完整、缺乏性能数据以及使用不安全的权重格式。
Endor Scores的一个关键特性是其用户友好的设计。开发人员不需要知道具体的模型名称;他们可以从通用问题开始搜索,例如“我可以使用哪些模型来分类情感?”或“Meta最受欢迎的模型有哪些?”工具随后会提供清晰的评分,列出每个模型的优点和缺点,让开发人员能够根据自己的需求选择最合适的选项。
“您的团队每天都会被问及关于AI的问题,他们将寻找可以用来加速创新的模型,” Apostolopoulos 指出。“使用Endor Labs评估开源AI模型有助于确保您所使用的模型能够达到预期效果,并且是安全可靠的。”
(图片由Element5数字公司)
想了解更多关于人工智能和大数据的知识?可以从行业领袖那里学习。结账退出AI与大数据博览会在阿姆斯特丹、加利福尼亚和伦敦举行。该全面活动与包括在内的其他领先活动同期同地举办。智能自动化大会, BlockX,数字转型周,和网络安全与云展览.
探索由TechForge支持的其他即将举行的企业技术活动和网络研讨会这里.