该公司宣布更新其隐私政策,承认其正在使用客户数据来训练其人工智能模型。
2024 年 9 月 21 日
专业社交网站 LinkedIn 据称使用用户数据来训练其人工智能 (AI) 模型,但并未提醒用户这样做。
根据本周的报道,LinkedIn 并未更新其隐私政策,以反映其出于人工智能培训目的收集用户数据的事实。
LinkedIn高级副总裁兼总法律顾问布莱克·劳维特(Blake Lawit)当天在公司官方博客上发文,宣布公司已纠正这一疏忽。
更新后的政策(包括修订后的常见问题解答)确认会自动收集人工智能培训的捐款。根据常见问题解答,LinkedIn 的 GenAI 功能可以使用个人数据在发帖时提出建议。
“在使用会员数据进行生成式人工智能培训时,我们提供了选择退出设置,”LinkedIn 帖子中写道。“选择退出意味着 LinkedIn 及其附属公司不会使用您在 LinkedIn 上的个人数据或内容来训练未来的模型,但不会影响已经进行的训练。”
Onymos 创始人兼首席执行官 Shiva Nathan 对 LinkedIn 在未经明确同意或未更新其服务条款的情况下使用先前用户数据来训练其人工智能模型的行为深表担忧。
“数以百万计的 LinkedIn 用户已默认选择加入,允许他们的个人信息为人工智能系统提供动力,”他说。“为什么这很重要?你的数据是个人和隐私的。它推动了人工智能的发展,但这不应该以你的同意为代价。当公司随意对待我们的数据时,就会造成巨大的信任差距。”
Nathan 补充道,这种情况不仅仅发生在 LinkedIn 上,他指出,个人和企业如今使用的许多技术和软件服务也在做同样的事情。
“我们需要改变对数据收集及其在人工智能模型训练等活动中的使用的思考方式,”他说。“我们不应该要求我们的用户或客户放弃他们的数据来换取服务或功能,因为这会让他们和我们都面临风险。”
LinkedIn 确实解释说,用户可以使用平台的数据访问工具查看和删除过去会话中的个人数据,具体取决于所涉及的人工智能功能。
美国没有联邦法律来管理人工智能使用的数据收集,并且只有少数几个州通过了关于如何通过退出机制尊重用户隐私选择的法律。但在世界其他地区,LinkedIn 不得不暂停其 GenAI 培训。
常见问题解答指出,“目前,我们无法对来自欧洲经济区、瑞士和英国的会员数据进行生成式 AI 培训”,并确认已停止在这些地区收集数据。
DataGrail 首席产品经理 Tarun Gangwani 表示,最近颁布的欧盟人工智能法案的政策中有规定,要求交易用户生成内容的公司对其在人工智能建模中的使用情况保持透明。
“人工智能在用户数据上的使用需要获得明确许可,这延续了欧盟通过要求明确选择同意使用跟踪来保护公民权利的总体立场,”Gangwani 解释道。
事实上,欧盟在侵犯隐私方面尤其表现出警惕。去年,LinkedIn 母公司微软因违反 GDPR 而被罚款 4.25 亿美元,而 Facebook 母公司 Meta 在 2022 年因违反欧洲数据隐私规则而被罚款 2.75 亿美元。
与此同时,英国信息专员办公室 (ICO) 今天发布了一份声明,欢迎 LinkedIn 确认其已暂停此类模型培训,以等待与 ICO 的进一步接触。
ICO 监管风险执行董事 Stephen Almond 表示:“为了充分利用生成式人工智能及其带来的机会,公众必须相信他们的隐私权从一开始就会受到尊重,这一点至关重要。”在一份声明中。“我们很高兴 LinkedIn 反映了我们对其使用与英国用户相关的信息训练生成人工智能模型的方法提出的担忧。”
无论地理位置如何,值得注意的是,过去企业已被警告不要使用客户数据来训练 GenAI 模型。2023 年 8 月,在客户对如何使用客户内容表示担忧后,通信平台 Zoom 放弃了使用客户内容进行 AI 培训的计划。今年 7 月,智能健身车初创公司 Peloton 遭到诉讼,指控该公司不当抓取从客户服务聊天中收集的数据来训练人工智能模型。
你可能也喜欢