2015 年,Elon Musk 和 Sam Altman 共同创立了 OpenAI,其基础是一种看似道德的精神:开发造福人类的 AI 技术,而不是由大公司控制的系统。
快进十年,其中包括马斯克和奥特曼之间的激烈争吵,情况看起来非常不同。在与他的朋友和前商业伙伴的法律斗争中,马斯克的最新公司 xAI 推出了自己的强大竞争对手 Grok AI。
Grok 被描述为一款带有幽默感和一丝叛逆感的人工智能搜索助手,它的设计比其主要竞争对手的护栏更少。毫不奇怪,Grok 很容易产生幻觉和偏见,这位人工智能助手被指责传播有关 2024 年选举的错误信息。
与此同时,其数据保护实践正在受到审查。今年 7 月,由于 X 平台的用户自动选择他们的帖子被用来训练 Grok,马斯克受到了欧洲监管机构的严厉批评。
其 Grok-2 大语言模型的图像生成功能也引起关注。8 月推出后不久,用户就证明了对卡马拉·哈里斯和唐纳德·特朗普等政客进行令人愤慨和煽动性的描述是多么容易。
那么 Grok AI 的主要问题是什么?如何保护您的 X 数据不被用来训练它?
马斯克正在将 Grok 深度集成到 X 中,将其用于定制新闻源和帖子合成。目前,它处于测试阶段,仅适用于高级订阅者。
提供数据保护和隐私服务的咨询公司 GRC International Group 的人工智能组负责人 Camden Woollven 表示,从 X 获取实时数据的好处之一是,Grok 可以在当前事件发生时谈论它们。
Version 1(一家帮助企业采用人工智能等技术的公司)的数据和人工智能主管 Nathan Marlor 表示,为了从竞争对手中脱颖而出,Grok 旨在做到透明和反唤醒。
为了透明度,Grok 团队在今年早些时候将底层算法开源。然而,Marlor 表示,在追求反唤醒立场的过程中,与 OpenAI 和 Anthropic 等同行相比,Grok 的护栏要少得多,对偏见的考虑也少得多。这种方法可以说使其更准确地反映了互联网上的基础训练数据,但它也有使有偏见的内容永久化的趋势。
《连线》曾多次联系 X 和 xAI 征求意见,但该公司尚未回应。
由于 Grok 过于开放且相对不受控制,该人工智能助手已被发现散布虚假的美国选举信息。在格罗克提供有关各州投票截止日期的虚假信息后,明尼苏达州、新墨西哥州、密歇根州、华盛顿州和宾夕法尼亚州的选举官员向马斯克发送了一封投诉信。
Grok 很快就这个问题做出了回应。据 The Verge 报道,当被问到与选举相关的问题时,人工智能聊天机器人现在会说,如需有关 2024 年美国选举的准确和最新信息,请访问 Vote.gov。
但 X 也明确表示用户有责任判断人工智能的准确性。xAI 在其帮助页面上表示,这是 Grok 的早期版本。因此,xAI 警告说,聊天机器人可能会自信地提供事实上不正确的信息、错误总结或错过某些上下文。
xAI 补充道,我们鼓励您独立验证您收到的任何信息。请不要在与 Grok 的对话中分享个人数据或任何敏感和机密信息。
大量数据收集是另一个值得关注的领域,尤其是因为无论您是否使用 AI 助手,您都会自动选择与 Grok 共享您的 X 数据。
Grok 帮助中心页面介绍了 xAI 如何利用您的 X 帖子以及您与 Grok 的用户交互、输入和结果来进行培训和微调。
NordVPN 首席技术官 Marijus Briedis 表示,Groks 培训策略具有重大的隐私影响。除了人工智能工具访问和分析潜在私人或敏感信息的能力之外,”Briedis 补充道,鉴于人工智能能够以最少的审核生成图像和内容,因此还存在其他问题。
据该公司称,虽然 Grok-1 接受了截至 2023 年第 3 季度的公开数据训练,但并未针对 X 数据(包括公开 X 帖子)进行预训练,但 Grok-2 已针对所有帖子、交互进行了明确训练CreateFuture(一家专门从事人工智能部署的数字咨询公司)的高级产品经理 Angus Allan 表示,X 用户的信息、输入和结果,每个人都会自动选择加入。
欧盟《通用数据保护条例》(GDPR) 明确规定要获得使用个人数据的同意。Allan 表示,在这种情况下,xAI 可能会忽略 Grok 的这一点。
这导致欧盟监管机构向 X 施压,要求其在上个月推出 Grok-2 后的几天内暂停对欧盟用户的培训。
不遵守用户隐私法可能会导致其他国家/地区的监管审查。艾伦指出,虽然美国没有类似的制度,但联邦贸易委员会此前曾因 Twitter 不尊重用户隐私偏好而对 Twitter 处以罚款。
防止您的帖子被用于培训 Grok 的一种方法是将您的帐户设为私有。您还可以使用 X 隐私设置来选择退出未来的模型训练。
为此,请选择隐私