OpenAI logo and ChatGPT on a wall with a similar sign and a plant in the foreground

库存全部/Shutterstock

ChatGPT 每天响应约 25 亿条提示,其中美国占 3.3 亿条。与与搜索引擎交互的体验不同,人工智能的响应更像是朋友的回复,而不是可能包含或不包含我们查询答案的简单网站列表。 人们以一些非常奇怪的方式使用像 ChatGPT 这样的人工智能工具,但共享信息时必须谨慎。

像 ChatGPT 这样的聊天机器人并不是基于静态信息数据库发出响应的单向工具。这是一个不断发展的系统,可以从输入的数据中学习,并且信息并不存在于真空中。虽然像 ChatGPT 这样的系统在设计时就采取了适当的保护措施,但人们对这些保护措施的有效性存在重大且合理的担忧。 

例如,2025 年 1 月,Meta AI 修复了一个允许用户访问其他用户的私人提示的错误。特别是对于 ChatGPT,早期版本很容易受到提示注入攻击,从而使攻击者能够拦截个人数据。另一个安全缺陷是 Google(和其他搜索引擎)不幸倾向于将共享的 ChatGPT 聊天内容编入索引,并在搜索结果中公开显示它们。 

这意味着我们应用于在线业务其他方面的数字卫生基本规则也同样适用于 ChatGPT。事实上,考虑到围绕该技术的安全性及其相对不成熟的争议,可以说在处理人工智能聊天机器人时需要更加谨慎。记住这一点,让我们看看永远不应该与 ChatGPT 分享的五件事。

个人身份信息

red keyboard button with the text "Personally Identifiable Information"

Gam1983/盖蒂图片社

也许最明显的起点是共享(或最好不共享)个人身份信息 (PII)。举个例子,网络安全情报网站最近发表了一篇基于安全侦探(一组网络安全专家)所做的研究工作的文章。该研究调查了 1,000 个公开的 ChatGPT 对话,结果令人大开眼界。他们发现用户经常分享详细信息,例如全名和地址、身份证号码、电话号码、电子邮件地址以及用户名和密码。鉴于 Atlas 等代理 AI 浏览器的兴起,后者更具相关性 - OpenAI 的基于 ChatGPT 的人工智能驱动的浏览器. . . 

毫无疑问,ChatGPT 对于简历和求职信等任务确实有帮助。然而,它完美地完成了工作,无需包含不必要的个人详细信息。占位符也同样有效,只要您记得编辑详细信息,以避免这封批评信被误认为来自米德尔敦 Nowhere Street 的 John Doe。最终,这一简单的步骤可以防止姓名、地址和身份证号等敏感数据——这些信息都可能被滥用,落入坏人之手。 

另一种选择是选择不让 ChatGPT 使用您的聊天进行数据训练。这可以在 ChatGPT 设置中完成,完整的说明可以在 OpenAI 网站重要的是,这并不意味着您可以突然分享您的 PII,但它确实减少了任何无意中共享的信息被公开的可能性。简而言之,您不需要与 ChatGPT 共享您的 PII,并且在任何情况下都应该避免。 

财务详情

Elderly couple looking shocked at what they see on a computer screen

菲兹克斯/Shutterstock

人们使用 ChatGPT 的另一种常见方式是作为个人财务顾问。这可以是像制定每月预算一样简单的事情,也可以是像制定整个退休策略一样复杂的事情。首先,正如 OpenAI 坦白承认的那样,“ChatGPT 可能会犯错误。检查重要信息。”这就是为什么许多专家建议不要在未与金融专业人士验证关键信息的情况下使用此类工具。话虽这么说,ChatGPT 可以帮助解决财务问题,但无需与其分享任何个人财务详细信息。 

虽然预算和财务规划是常见的用例,但有时用户可能会忍不住输入财务详细信息。了解银行对账单、审查贷款报价或使用上述代理人工智能。在任何情况下,很少需要真正的详细信息,可以输入占位符信息。如果用户上传财务报表,也可以先编辑 PII 信息。 

敏感信息包括银行账号、信用卡详细信息、投资账户凭据和税务记录。聊天机器人不在旨在保护金融交易的安全框架内运行。从本质上讲,这意味着一旦输入,该信息就存在于通常应用于财务数据的保护措施之外。在最坏的情况下,这可能会导致敏感的财务数据落入“坏人”手中,他们可能会利用这些数据进行金融欺诈、身份盗窃、勒索软件攻击、网络钓鱼或上述所有行为。 

医疗详情

ChatGPt open on a smartphone with the text "where should we begin? displayed"

Blossom Stock 工作室/Shutterstock

我们不会太深入地讨论人们是否应该使用 ChatGPT 来获取医疗建议,只需说我们可以让您参考我们之前的观点:“ChatGPT 可能会犯错误。”话虽这么说,这里的重点不是您是否应该使用它来提供医疗建议,而是您是否应该与它分享您的医疗详细信息,尤其是经常提到的 PII。这种区别很重要,因为越来越多的人开始使用 ChatGPT 等人工智能聊天机器人来获取健康相关信息。根据最近的一项民意调查,大约六分之一的成年人每月至少使用一次人工智能聊天机器人来获取健康信息;对于年轻人来说,这个数字上升到四分之一。 

同样,当一般性讨论开始包含具体细节时,风险就会出现。诊断、测试结果、病史和心理健康问题等信息很快就会变得敏感,尤其是与识别信息结合使用时。与财务信息一样,问题变得更加严重,因为一旦输入,此类数据就存在于健康数据保护网络之外,这意味着一旦它“在野外”,用户对其处理方式几乎没有可见性或控制力。 

事实上,与使用普通的旧式 Google 搜索相比,人们可以更轻松地使用 ChatGPT 分享个人信息。类似对话的互动比非人性化的谷歌搜索感觉更人性化,这可能会导致人们更愿意泄露个人医疗信息。 

ChatGPT 对于从广义上理解医学概念很有用,但不应将其视为拥有医生手术的自由裁量权。 

工作相关材料

A man working on a laptop with various AI chatbot windows superimposed

男孩威拉特/盖蒂图片社

除了个人数据之外,还有另一类信息不属于 ChatGPT(至少以未经过滤的形式),即与机密或专有工作相关材料相关的对话。这包括与雇主、客户或任何正在进行的未获准公开曝光的项目相关的任何内容。虽然使用 ChatGPT 总结文档、重写电子邮件或检查和编辑报告可能很诱人,但这样做可能会给通常受保护的数据的完整性带来不必要的风险。 

举个例子,让我们回到医疗场景,但这次我们是从专业的角度来看待它。在这种情况下,忙碌的医生可能会想与 ChatGPT 分享患者摘要草稿、临床笔记或转介信,以帮助收紧语言或简化复杂的主题。然而,虽然目的是提高效率,但共享此类详细信息可能会将这些材料置于公共领域,或者至少将其置于旨在保护此类信息的安全程序之外。创意作品和知识产权也属于“不共享”类别。 

总之,有一个运行主题可以用来概括问题。切勿与 ChatGPT 等人工智能聊天机器人分享任何您不愿意放置在任何面向公众的平台上或交给任何可接受的安全和监管系统之外的第三方的任何内容。只要稍加注意,聊天机器人就可以成为非常有用的工具。 ChatGPT 充满了您忽略但可能不应该忽略的功能– 保持安全不是其中之一。 

任何非法行为

ChatGPT showing a warning about an inappropriate prompt

Nwz/Shutterstock

最后,最好避免在 ChatGPT 中共享任何非法内容,OpenAI 不仅致力于响应有效的美国合法流程而披露用户数据,而且还将遵守国际要求。

无论国内外,法律都在不断变化,普通行为可能会在短时间内被定为犯罪,因此最好谨慎对待您向公司透露的信息,这些信息随后可能会移交给执法部门。

OpenAI 确实有适当的保护措施,可以防止 ChatGPT 被用于非法或不道德的目的,并且玩弄这些界限可能会被标记。这包括询问它如何犯罪或欺诈,以及影响人们采取可能有害的行为。它还具有专门的“管道”,专门过滤掉检测到用户计划伤害他人的聊天。 

而后一点可能是最严重且相对容易标记的。ChatGPT 的其他非法滥用表明其保护措施并非无懈可击。使用该平台编写恶意代码和自动化社会工程方案的情况已有详细记录,这凸显了使用 ChatGPT 时谨慎第一的重要性。