LinkedIn 最近开始利用其用户内容和数据来训练人工智能模型,在没有正式通知的情况下选择所有平台参与者加入该计划,英国和欧洲的用户除外。
周五,英国数据隐私监管机构信息专员办公室 (ICO) 的一名官员发表声明,表示监管机构已与 LinkedIn 合作,阻止该功能在英国推出。
ICO 监管风险执行董事 Stephen Almond 在声明中表示,“我们很高兴 LinkedIn 反映了我们对其使用英国用户相关信息训练生成人工智能模型的方法所提出的担忧。
声明称,LinkedIns 领导层告诉数据隐私监管机构,他们已暂停此类模型培训,等待与 ICO 进一步接触。
据周三首次报道这一消息的 404 Media 报道,该专业网络平台在更新服务条款和隐私政策之前推出了新的人工智能模型培训计划。
根据 404 Media 报道发布后发布的新隐私政策,LinkedIn 现在使用从该网站提取的私人数据和用户内容来开发和训练人工智能 (AI) 模型,并借助人工智能、自动化系统获得见解和推论,以便我们的服务对您和其他人来说更加相关和有用。
新的人工智能功能也没有在欧洲使用,欧洲有严格的法律保护消费者的数据隐私。
用户可以选择退出模型训练功能,方法是在帐户设置中找到数据隐私按钮,然后单击“用于生成人工智能改进的数据”,他们会在其中找到一个开关,允许他们关闭自动选择加入。
据 404 Media 报道,该公司大约一周前发布了一个常见问题页面,详细介绍了其在人工智能模型中使用个人数据和内容的情况。
该页面警告用户,他们的个人数据可能会被用于(或处理)LinkedIn 上的某些生成人工智能功能。
与 LinkedIn 上的其他功能一样,当您使用生成式 AI 支持的功能时,我们会处理您与该功能的交互,其中可能包括个人数据(例如,您的输入和结果输出、您的使用信息、您的语言偏好以及任何反馈)你提供),它补充道。
在 404 Media 于周三发布披露这些变化的报道后,LinkedIn 的总法律顾问在网站上发布了一条通知,称该平台已更新其用户协议和隐私政策。
在我们的隐私政策中,我们添加了一些语言来阐明我们如何使用您与我们分享的信息来开发 LinkedIn 及其附属公司的产品和服务,包括训练用于内容生成(生成式 AI)的 AI 模型以及通过帖子称,安全措施。
苏珊娜·斯莫利
是 The Record 的一名记者,报道隐私、虚假信息和网络安全政策。她此前曾担任 CyberScoop 和路透社的网络安全记者。在她职业生涯的早期,苏珊娜为《波士顿环球报》报道了波士顿警察局,并为《新闻周刊》报道了两次总统竞选周期。她与丈夫和三个孩子住在华盛顿。