您已经知道不要与他人分享敏感信息骗子通过电话,在电子邮件或粗略的网站上引起警钟。
但现在人工智能工具无处不在,而且每天都有越来越多的人使用它们,用户与聊天机器人分享高度个人化的详细信息变得异常普遍。同时,来自个人的诉讼、公司甚至政府组织都对用户数据的处理和共享方式提出了担忧。
我收到上诉了。聊天机器人当您尝试解决问题时,它们非常方便并且通常很有帮助。但这并不意味着所有内容都属于提示框。共享某些类型的信息可能会增加信息被暴露、滥用或以您意想不到的方式存储的风险。
文章继续如下
自从我开始每天使用人工智能以来,我一直遵循一个简单的规则:假设你输入的任何内容都可以被其他人看到。这种心态让你更容易发现不应该与聊天机器人分享的七件事。
切勿让聊天机器人访问有关您或他人的这 7 个敏感详细信息
无论您是聊天机器人新手还是自认为经验丰富,在过度分享时,以下 10 条提醒都值得牢记:
- 密码:您永远不应该将任何密码粘贴到聊天机器人中。尝试想出一个足够强大的新密码变体或找到当前遇到的登录问题的解决方案是不需要向聊天机器人寻求帮助的情况。
- 财务信息:常识表明,切勿向聊天机器人透露您的借记卡/信用卡详细信息、银行账户信息、投资数据或与您的财务相关的任何其他信息。向人工智能工具寻求预算建议并通过合法的财务顾问运行它是可以的,但与聊天机器人分享你的个人资金数据以获得这些答案则不然。
- 社会安全号码:这是诈骗者的金矿,永远不应该包含在任何人工智能提示中,尤其是在人工智能公司未经用户同意而共享用户数据的威胁不断增加的情况下。
- 机密文件:上传包含您的地址、帐号和其他个人标识符的文档以进行某种分析并不是正确的方法。
- 工作相关信息:您可能想让 AI 总结您从同事那里收到的冗长电子邮件、PowerPoint 演示文稿或商业演示文稿。但在与聊天机器人分享后,违反公司政策并冒暴露公司内部交易的风险是不值得的。
- 医疗文件:参考 Ada 和 Wysa 等人工智能工具来询问您的身体和精神症状是值得做的,同时也向真正的健康专业人士提及它们。但上传包含您的病史、健康保险详细信息或实验室结果的文件是禁忌。
- 其他人的信息:使用聊天机器人时,没有必要通过分享最个人的数据信息来使某人容易遭受数据泄露。仅仅因为您将其附加到提示上而破坏与亲人的这种程度的信任是不值得冒险的。
底线
您可以通过多种方式从人工智能工具中获取所需的技巧、建议和创意。但在与它们互动时,保护自己至关重要 - 这意味着将最珍贵的东西留给自己,并且在聊天期间永远不要有将它们粘贴或附加到 ChatGPT、Gemini、Perplexity 或其他人的冲动。
人工智能用户应该始终意识到,聊天机器人不是私人日记,它们是在许多情况下可以提供帮助的数字助理,但并不是您的信息的私人避风港。
关注 Google 新闻汤姆指南和 将我们添加为首选来源在您的源中获取我们的最新新闻、分析和评论。
汤姆指南的更多内容
- 诉讼称,Perplexity 的“隐身模式”是一个骗局:你的私人人工智能数据是否会泄露给谷歌?
- 你的声音可以被人工智能克隆,四分之一的美国人成为目标 - 专家分享如何阻止它们
- 我询问 ChatGPT 在点击可疑链接后该怎么做 – 以下是它如何帮助您避免灾难
返回移动电话
![]()
显示更多