英语轻松读发新版了,欢迎下载、更新

专家警告DeepSeek的危险性比其他AI聊天机器人高11倍

2025-02-05 16:43:59 英文原文

作者:Chiara CastroSocial Links NavigationNews Editor (Tech Software)

DeepSeek
(图片来源:盖蒂图像)

DeepSeek的S R1 AI被网络犯罪分子利用的可能性是其他AI模型的11倍 - 无论是通过产生有害内容还是容易受到操纵的影响。

这是一个令人担忧的发现新研究由AI安全和合规平台Enkrypt AI进行。该安全警告在上周的数据泄露后增加了持续的担忧暴露了超过一百万的记录

自1月20日发行以来,中国开发的DeepSeek在AI世界中引发了冲击波。全球约有1200万好奇的用户在两天内下载了新的AI聊天机器人,甚至标志着增长比chatgpt快。但是,广泛的隐私和安全问题促使许多国家开始以某些身份开始调查或禁止新工具。

有害内容,恶意软件和操纵

Enkrypt AI的团队进行了一系列测试,以评估DeepSeek的安全漏洞,例如恶意软件,数据泄露和注射攻击及其道德风险。

调查发现,Chatgpt竞争对手“高度偏见,容易产生不安全的代码”,”专家指出,并且DeepSeek的模型容易受到第三方操纵的影响,使罪犯可以将其用于开发化学,生物学和网络安全武器。

进行了将近一半的测试(45%)绕过了安全协议,产生了犯罪计划指南,非法武器信息和恐怖宣传。

更糟糕的是,78%的网络安全检查成功地欺骗了DeepSeek-R1来生成不安全或恶意代码。其中包括恶意软件,特洛伊木马和其他漏洞。总体而言,专家发现,该模型的可能性是网络犯罪分子来创建危险的黑客工具的开放式ai对应物的4.5倍。

Enkrypt AI首席执行官Sahil Agarwal表示:“我们的研究结果揭示了不容忽视的主要安全和安全差距。”“包括护栏和连续监控在内的强大保障措施对于防止有害滥用至关重要。”

ð蒸馏器型号模型是否更安全?早期的迹象指向是。 - 我们的最新发现证实了一个有关趋势:蒸馏AI模型更容易越来越容易越狱,开发和操纵。ð阅读论文:https://t.co/nzdcr82j8mð关键要点ð〜pic.twitter.com/ifcjlyxbwb2025年1月30日

如前所述,在撰写本文时,DeepSeek在全球许多国家都受到了审查。

尽管意大利是第一个发起调查的人上周,许多欧盟成员都在其隐私和安全性中效仿。其中包括法国,荷兰,卢森堡,德国和葡萄牙。

中国的一些邻国也在担心。例如,台湾已禁止所有政府机构从使用DeepSeek AI。同时,韩国启动探针进入服务提供商的数据实践。

毫不奇怪,美国也将其针对其新的AI竞争对手。随着美国国家航空航天局(NASA)阻止了对联邦设备的DeepSeek使用CNBC报道2025年1月31日星期五法案现在,可以完全禁止所有可能冒险使用该国使用该平台的美国人的美国人使用DeepSeek。

总而言之,来自加密AI的Agarwal说:“随着美国和中国之间的AI军备竞赛加剧,这两个国家都在推动下一代AI的界限,以实现军事,经济和技术至上的范围。

“但是,我们的发现表明,DeepSeek-R1的安全漏洞可以变成一种危险的工具 - 网络犯罪分子,虚假信息网络,甚至具有生化战雄心勃勃的人也可以利用。这些风险都需要立即关注。”

Chiara是一位多媒体记者,致力于涵盖故事,以帮助促进权利并谴责数字生活的滥用,无论网络安全,市场和政治纠缠在哪里。 她为Techradar和Techradar Pro特别关注了有关数据隐私,在线审查,数字权利,网络犯罪和安全软件的新闻,访谈和分析。有一个故事,小费或技术说话吗?与Chiara.castro@futurenet.com联系

关于《专家警告DeepSeek的危险性比其他AI聊天机器人高11倍》的评论


暂无评论

发表评论

摘要

根据Enkrypt AI的研究,DeepSeek的R1 AI模型与其他模型相比,与其他模型相比,网络犯罪分子的剥削更容易受到剥削。该研究发现,为危险目的进行操纵的DeepSeek的可能性是其Openai对应物的4.5倍。几乎一半的测试绕过了安全协议,产生了有害内容和不安全的代码。这导致在包括意大利,法国,台湾,韩国和美国在内的多个国家进行了调查或禁令。该研究强调了需要强大的保障措施以防止滥用的主要安全差距。