作者:Bree Fowler Senior Writer
几周前,当它在App Store上市时,它就震撼了技术界和金融市场,并承诺与OpenAI和Google这样的成本相同的高性能人工智能模型提供相同的高性能人工智能模型。但是政府和数据安全方面的一些人担心突然受欢迎的开源AI助理与中国的联系可能会使美国数据处于危险之中,将其与社交媒体平台Tiktok进行比较,Tiktok是国会议员
绝大多数去年投票通过。这些问题不仅限于DeepSeek。
它们都是每个人都将AI Chatbot应用程序下载到手机上的东西,即使在立法厅里进行的国家安全旗帜挥舞着挥动国家安全也是如此。我们将概述下面的一些有用的提示。
周四,美国一对众议院成员宣布介绍立法的计划这将禁止在所有政府设备上使用该应用程序,理由是中国共产党访问DeepSeek和其他中国拥有的应用程序收集的数据的能力,以及DeepSeek被用来传播中国虚假信息的潜力。
新泽西州民主党人乔什·戈特维默(Josh Gottheimer)在一份声明中说:“这是一场五个警报国家安全大火。”国家安全有风险。
“我们以前看过中国的剧本与蒂克托克(Tiktok),我们无法再次发生。”
澳大利亚上周禁止该应用程序在政府设备上。一些美国州也做了同样的事情,德克萨斯州是第一个。和纽约州长星期一在州政府的设备和系统上发布了全州范围的DeepSeek禁令。
DeepSeek与中国的联系,以及它在美国的广受欢迎以及周围的新闻嗡嗡声,可以轻松地与Tiktok进行比较,但安全专家说,尽管DeepSeek的数据安全威胁是真实的,但它们与这些威胁是不同的,但它们与之不同。社交媒体平台。
尽管DeepSeek现在可能是Hot New AI助手,但仍有大量的新型AI模型和版本,因此在使用任何类型的AI软件时要小心很重要。
同时,与专门从事AI安全合规性的网络安全公司BigID的首席执行官Dimitri Sirota表示,同时,要让普通人避免下载和使用DeepSeek将是一件艰难的卖出。
他说:“我认为这很诱人,尤其是对于新闻中的事物而言。”“我认为,在某种程度上,人们只需要确保他们在一组参数中运行。”
像Tiktok一样,DeepSeek与中国有联系,用户数据也会发送回该国的云服务器。就像由中国兽人所有的Tiktok一样,中国法律要求DeepSeek将用户数据移交给政府,如果政府要求这样做。
借助Tiktok,过道两边的立法者都担心中国共产党可以将美国用户数据用于情报目的,或者可以将应用程序本身修改为以中国宣传来淹没美国用户。这些担忧最终促使国会通过去年禁止Tiktok的法律除非卖给美国官员认为合适的买家。
但是,对DeepSeek或任何其他AI进行处理并不像禁止应用程序那样简单。与Tiktok不同,公司,政府和个人可以选择避免,DeepSeek是人们可能最终遇到的东西,并将信息交给信息,甚至不知道。
Sirota说,普通消费者甚至可能都不知道他们与之互动的AI模型。许多公司已经运行了多种AI模型,而Avatar为Avatar提供动力的“大脑”或特定的AI模型甚至可以与公司收藏中的另一个换成”,而消费者与之互动,具体取决于哪些任务需要完成。
同时,一般而言,AI周围的嗡嗡声并没有很快释放。来自其他公司的更多模型,包括像DeepSeek这样的开源的一些模型,也正在途中,肯定会吸引公司和消费者的未来关注。 -
Rapid7产品管理高级经理Kelcey Morgan说,因此,专注于DeepSeek仅消除了一些数据安全风险。
公司和消费者不必专注于当前备受关注的模型,而是需要弄清楚他们想在各种AI方面承担多少风险,并实现旨在保护数据的实践。
摩根说:“这是下周出现的任何热点。”
网络安全专家说,中国有足够的人员和处理能力来挖掘DeepSeek收集的大量数据,将其与其他来源的信息结合使用,并可能建立美国用户的概况。
西罗塔说:“我确实认为我们已经进入了一个新时代,计算不再是限制。”并补充说中国具有相同的能力。
尽管与Tiktok的用户一样,与DeepSeek一起玩的人现在可能年轻且相对不重要,但中国很乐意参加漫长的比赛,等待他们是否长大后成为有影响力的人,并且值得有可能成为目标的人。。
全球最大的威胁数据和情报私人提供商Flashpoint执行董事安德鲁·鲍伦(Andrew Borene)表示,华盛顿的人们,无论政治倾向如何,近年来都变得越来越意识到。
他说:“我们知道决策者知道;我们知道技术界已经知道。”“我的个人评估是,我不确定美国消费者一定会知道这些风险是什么,或这些数据的去向以及为什么这是一个问题。”
鲍伦(Borene)强调,如果他们选择使用DeepSeek,则在政府中工作的任何人都应该行使“最高水平的谨慎”,但他还说,所有用户都应该记住,他们的数据可能最终落入了中国官员的手中。
他说:“这是要考虑的重要因素。”“您不需要阅读隐私政策就可以知道这一点。”
保持您的私人信息私密。
盖蒂图像鉴于知道您实际使用的AI模型可能很困难,因此专家说,使用任何一个时最好要小心。
这里有一些技巧。
与其他所有事物一样,请与AI聪明。在这里,通常适用的技术最佳实践。设置长,复杂且独特密码,始终启用两因素身份验证尽可能地,将所有设备和软件更新。
保持个人信息个人。在将有关自己的个人详细信息输入AI聊天机器人之前,请先思考。是的,这涵盖了明显的禁忌,就像社会保险号和银行信息一样,但也可能不会自动引起警报铃的细节,例如您的地址,工作地点以及朋友或同事的名字。
持怀疑态度。就像您对以电子邮件,文本或社交媒体帖子形式出现的信息请求保持警惕一样,您也应该担心AI查询。Sirota说,将其视为第一次约会。如果模型第一次使用它时提出了怪异的个人问题,请走开。
不要急于成为早期采用者。摩根说,仅仅因为AI或应用程序的趋势并不意味着您必须立即拥有它。自己决定在市场上新的软件时要承担多少风险。
阅读条款和条件。是的,这是很多要问的了。Borene说,这些陈述还可以提供有关AI或应用程序是否正在收集和共享设备其他部分的数据的见解。如果是这样,请关闭这些许可。
注意美国的对手。鲍伦说,任何位于中国的应用程序都应怀疑,但俄罗斯,伊朗或北朝鲜等其他对抗或无权国家的应用程序也应该受到怀疑。无论条款和条件怎么说,您可能会在美国或欧洲联盟这样的地方享有的隐私权。