领英:如果我们的AI出了错,那问题是你的

2024-10-09 00:32:00 英文原文

微软的LinkedIn将于下个月更新其用户协议,警告用户可能会显示不准确或具有误导性的生成式AI内容。

领英因此效仿其母公司,最近修订了服务协议,明确指出其辅助AI不应依赖.

然而,LinkedIn 将其否认责任的程度更进一步:它将让用户为其分享的任何违反政策的由其自身AI工具生成的虚假信息负责。

无实际内容需要翻译 The(如果这句话仅仅是"The",那么确实没有可翻译的内容)相关内容,该条款将于2024年11月20日生效,具体内容为:

简而言之,领英将提供可以生成自动化内容的功能,但这些内容可能存在不准确的情况。用户有责任审核并更正虚假信息,在分享相关内容之前确保其准确性,因为领英不对由此产生的任何后果负责。

平台的专业社区政策引导用户“分享真实可靠的信息”——而LinkedIn并没有对其自己的工具提出同样的要求。

当被问及领英的政策是否意图让用户对其使用该公司生成式AI工具创建的违规内容负责时,一位发言人选择回答一个不同的问题:“我们认为我们的成员应该能够对自己的数据行使控制权,这就是为什么我们在进行用于内容生成的AI模型训练的国家提供退出设置的原因。”

我们一直在LinkedIn产品中使用某种形式的自动化,并且一直明确表示用户可以选择他们的数据如何被使用。如今的现实是,许多人正在寻求帮助来撰写简历的第一稿,在LinkedIn个人资料上编写摘要,以及撰写给招聘人员的信息以获得下一个职业机会。归根结底,人们希望在职业生涯中取得优势,而我们的生成式AI服务正是为了提供这样的助力。

面向企业的社交网络站点宣布了2024年9月18日待处理的更改——大约在同一时间,该网站也披露它已经开始收集用户帖子用于训练AI模型未经事先同意。

LinkedIn默认开始这样做的事实——要求用户选择退出以避免为AI系统提供数据——并未得到英国信息委员会办公室(ICO)的好评,后者随后为英国的用户争取到了暂缓执行。几天后,LinkedIn宣布,在进一步通知之前,不会启用来自欧洲经济区、瑞士和英国会员的数据进行AI训练。

在自由放任的美国,领英用户不得不寻找合适的隐私设置来选择退出。

The 违反领英政策的后果根据违规的严重程度而定。惩罚可能包括限制内容的可见性、对其进行标注或删除。对于屡犯者可能会暂停账号,而对于最严重的违规行为则保留一次性封号的权利。

领英并未指定其哪些功能可能会生成可疑的人工智能内容。但之前的AI增强服务推广活动可能提供一些指导。领英使用AI生成的消息在领英招聘中根据候选人资料创建个性化的站内信消息。它还允许猎头人员利用AI增强职位描述。它为用户提供有关“关于”和“标题”部分的AI写作帮助。并且它试图让人们参与“贡献”。合作文章通过给他们展示一个由AI生成的问题来免费提供。

销售人员还可以使用LinkedIn的AI辅助功能搜索和账户IQ这有助于他们寻找销售机会。

当被要求对LinkedIn对其生成式AI工具不负责任的声明发表评论时,电子前沿基金会的高级法律顾问Kit Walsh表示:“很高兴看到LinkedIn承认语言模型容易产生虚假信息并重复错误信息。这些语言模型不可靠的事实应该在用户体验中得到突出强调,以防止人们因理解上的失误而依赖它们。”

通常来说,选择发布特定声明的人要对声明内容负责,但你也没有错指出这种说法与用户协议中保护公司免受由于这些工具不可靠而导致的后果之间的矛盾。这些工具在传达真相方面存在局限性。®

关于《领英:如果我们的AI出了错,那问题是你的》
暂无评论

摘要

微软的领英将在下个月更新其用户协议,警告用户可能会向他们展示不准确或具有误导性的生成式AI内容。当被问及领英政策的意图是否是要让用户对其使用该公司生成式AI工具所创建的违规内容负责时,一位发言人选择回答另一个问题:“我们认为我们的会员应该有能力对自己的数据进行控制,这就是为什么我们在开展用于内容生成的人工智能模型训练业务所在的国家提供一个可选退出设置。领英默认开启该功能——要求用户主动选择退出向AI提供信息——这一做法并未得到英国信息委员会办公室(ICO)的认同,后者随后为英国的用户提供了一个暂缓期。领英在其LinkedIn Recruiter中使用AI生成的消息,根据候选人档案创建个性化的InMail消息。“通常情况下,发布特定声明的人对其内容负责是正确的,但你也没有错指出,在用户协议中的高调宣传语言模型能力与保护公司免受这些工具在准确性方面的不可靠性后果之间的矛盾。”