英语轻松读发新版了,欢迎下载、更新

CHAT-GPT危险:您永远不应该告诉AI机器人的5件事

2025-04-07 05:30:00 英文原文

作者:Bernard Marr

AI Bot Chatgpt每天都有十亿个问题接管了我们的生活,但专家现在警告说,这是一个... 更多的“隐私黑洞”可能会暴露您的最个人信息。

Adobe Stock

Chatgpt改变了我们许多人的工作方式,并过着日常的生活。根据最近的统计数据,我们每天有超过1亿使用它来处理超过10亿个查询。

但是,召集世界的LLM聊天机器人一直是描述作为一个隐私黑洞,人们担心它处理用户输入的数据,甚至导致它是短暂禁止在意大利。

它的创造者Openai使没有秘密输入的任何数据可能不安全的事实。除了用来进一步训练其模型(可能导致其输出接触其他人)外,人类可以对其进行审查,以检查是否符合有关如何使用的规则。而且,当然,发送到任何云服务的任何数据都与提供商的安全性一样安全。

这一切意味着输入的任何数据都应被视为公共信息。考虑到这一点,绝对不应该告诉过几件事或任何其他基于云的聊天机器人。让我经历其中的一些:

非法或不道德要求

大多数AI聊天机器人的保障措施旨在防止其用于不道德目的。而且,如果您的问题或要求涉及可能是非法的活动,那么您可能会发现自己在热水中。询问公共聊天机器人绝对是一个坏主意的事情的例子是如何犯罪,进行欺诈活动或操纵人们采取可能有害的行动。

许多使用政策明确表明,非法请求或寻求使用AI进行非法活动可能会导致用户报告给当局。这些法律可能会因您的位置而定。例如,中国的AI法律禁止使用人工智能破坏国家权威或社会稳定,欧盟AI法案指出,必须清楚地标记了AI生成的Deepfake图像或视频,但实际上是AI生成的。在英国,《在线安全法》使得未经同意共享AI生成的明确图像是刑事犯罪。

在道德上,输入对可能损害他人的非法材料或可能伤害他人的信息的请求;它可能导致严重的法律后果和声誉损失。

登录和密码

随着兴起代理AI,我们更多的人会发现自己使用能够连接并使用第三方服务的AI。为了做到这一点,他们可能需要我们的登录凭证;但是,让他们访问可能是一个坏主意。一旦数据进入了公共聊天机器人,就几乎无法控制它的发生的事情,并且在对其他用户的响应中暴露了一个用户输入的个人数据。显然,这可能是一场隐私的噩梦,因此,在事情的立场上,最好避免与AI进行任何类型的互动,除非您完全确定自己使用非常安全的系统,否则涉及使其访问用户名和帐户。

财务信息

出于类似的原因,开始将数据(例如银行帐户或信用卡号码)纳入Genai聊天机器人可能不是一个好主意。这些只能将其输入用于电子商务或在线银行业务的安全系统,后者在处理数据后具有内置的安全警卫,例如加密和自动删除数据。聊天机器人没有这些保障措施。实际上,一旦数据进入,就无法知道它会发生什么,并且输入这些高度敏感的信息可能会使您接触欺诈,身份盗窃,网络钓鱼和勒索软件攻击。

机密信息

每个人都有保密的责任,以保护他们对此负责的敏感信息。这些职责中有许多是自动的,例如专业人士之间的机密性(例如,医生,律师和会计师及其客户)。但是许多员工也对雇主有隐含保密义务。共享商业文件,例如会议或会议记录或交易记录,很可能构成共享商业秘密和违反保密性的行为,例如在涉及的情况下三星员工在2023年。因此,无论将它们全部塞进chatgpt有多诱人,以查看它可以挖掘出什么样的见解,这不是一个好主意,除非您完全确定这些信息可以安全共享。

医疗信息

我们都知道,要求Chatgpt成为您的医生并诊断医疗问题可能很诱人。但这应该始终谨慎谨慎,特别是考虑到最近的更新使它能够记住,甚至可以从不同的聊天中提取信息,以帮助其更好地了解用户。这些功能都没有任何隐私保证,因此最好意识到我们对输入的任何信息所发生的事情确实几乎没有控制权。当然,对于处理患者信息的与健康相关的企业,这是双重的,这些企业有可能罚款巨大的罚款和声誉损失。

总结

与我们登上互联网上的任何东西一样,可以假设不能保证它将永远保持私密性。因此,最好不要透露任何您不愿意知道的事情。随着聊天机器人和人工智能代理商在我们的生活中发挥越来越大的作用,这将成为一个更加紧迫的关注,对用户的风险进行教育将是提供此类服务的任何人的重要责任。但是,我们应该记住,我们也有个人责任来照顾自己的数据并了解如何确保其安全。

关于《CHAT-GPT危险:您永远不应该告诉AI机器人的5件事》的评论


暂无评论

发表评论

摘要

Chatgpt已广泛使用超过1亿用户处理超过10亿个查询的用户。但是,已经出现了对隐私和数据安全的担忧,导致一些专家将其标记为“隐私黑洞”。Openai承认输入的用户数据可能不安全,并且有可能被人类审查以进行合规检查或进一步的模型培训。这突出了将任何信息输入Chatgpt视为公众的风险。建议用户由于潜在的安全风险和法律后果而共享机密,财务,医疗信息,登录,密码和非法请求。