LinkedIn 周三承认,它一直在未经同意的情况下利用许多用户的数据训练自己的人工智能。现在,用户无法选择退出已经发生的培训,因为 LinkedIn 将选择退出限制为仅限未来的人工智能培训。
在详细介绍 11 月 20 日更新的博客中,LinkedIn 总法律顾问 Blake Lawit 表示确认 LinkedIn 的用户协议和隐私政策将进行更改,以更好地解释用户的个人数据如何为平台上的 AI 提供支持。
根据新的隐私政策,LinkedIn 现在告知用户“我们可能会使用您的个人数据”...[以]开发和训练人工智能 (AI) 模型,开发、提供和个性化我们的服务,并借助人工智能、自动化系统和推理获得见解,从而使我们的服务更加相关和有用给您和其他人。”
常见问题解答解释说,每当用户与生成人工智能或其他人工智能功能交互时,以及当用户撰写帖子、更改其偏好、向 LinkedIn 提供反馈,或使用该平台任意时间。
然后,该数据将被存储,直到用户删除人工智能生成的内容。LinkedIn 建议用户如果想要删除或请求删除收集的有关 LinkedIn 过去活动的数据,请使用其数据访问工具。
LinkedIn 为生成式 AI 功能提供支持的 AI 模型“可能由 LinkedIn 或其他提供商进行培训”。常见问题解答称,例如微软,该公司通过其 Azure OpenAI 服务提供一些人工智能模型。
LinkedIn 的常见问题解答指出,用户潜在的主要隐私风险是,“提供个人数据作为输入的用户”生成式人工智能驱动的功能”最终可能会看到他们的“个人数据作为输出提供。”
LinkedIn 声称它“寻求最大限度地减少用于训练模型的数据集中的个人数据”,依赖于关于“从训练数据集中编辑或删除个人数据的隐私增强技术。”
虽然 Lawit 的博客避免澄清是否可以从人工智能训练数据集中删除已经收集的数据,但常见问题解答确认自动选择的用户想要共享人工智能培训的个人数据只能选择退出“未来”的侵入性数据收集。
常见问题解答称,选择退出“不会影响已经进行的培训”。
LinkedIn 的一位发言人告诉 Ars,“默认”选择参加人工智能培训“对所有会员都有利”。
“人们可以选择退出,但他们来到 LinkedIn 是为了接受人工智能培训。”LinkedIn 的发言人表示:“为工作和网络而生,生成式人工智能是我们帮助专业人士应对这一变革的一部分。”
通过允许选择退出未来的人工智能培训,LinkedIn 的发言人还声称,该平台“在我们如何使用数据来训练我们的生成人工智能技术时,为使用 LinkedIn 的人们提供更多选择和控制权。”
用户可以选择退出人工智能培训,方法是导航至其帐户设置中的“数据隐私”部分,然后关闭允许收集“用于生成人工智能改进的数据”的选项,否则 LinkedIn 会自动为大多数用户打开该选项。
<唯一的例外是欧洲经济区或瑞士的用户,他们受到更严格的隐私法的保护,这些法律要么需要平台同意才能收集个人数据,要么要求平台证明数据收集是合法利益。LinkedIn 反复证实,这些用户不会看到选择退出的选项,因为他们从未选择加入。此外,用户可以“反对使用其个人数据进行训练”未使用的生成 AI 模型The Verge 指出,通过提交 LinkedIn 数据处理异议表来生成 LinkedIn 内容,例如用于个性化或内容审核目的的模型。
去年,LinkedIn 分享了人工智能原则,承诺采取“有意义的步骤来减少潜在的风险”人工智能的风险。”
更新后的用户协议指定的一个风险是,使用 LinkedIn 的生成功能来帮助填充个人资料或在撰写帖子时生成建议可能会生成“可能不准确、不完整、延迟”的内容、误导性或不适合您的目的。”
建议用户有责任避免分享误导性信息或以其他方式传播可能违反 LinkedIn 社区准则的 AI 生成内容。此外,还警告用户在依赖平台上共享的任何信息时要小心谨慎。
“与我们服务上的所有内容和其他信息一样,无论其是否被标记为由“人工智能”创建,请确保LinkedIn 的用户协议中写道:“在依赖它之前要仔细审查。”
2023 年,LinkedIn 声称它将始终“寻求以清晰简单的方式解释我们对人工智能的使用如何影响人们”,因为用户” “对人工智能的理解始于透明度。”
像欧盟人工智能法案和 GDPR 这样的立法,尤其是其强大的隐私保护措施,如果在其他地方颁布,将减少对毫无戒心的用户的冲击。这将使所有公司及其用户在训练人工智能模型时处于平等地位,并减少令人讨厌的意外和愤怒的客户。