2026 年 3 月 9 日Ø
My fiancé works at Anthropic.See my full ethics disclosure这里。
我。
周五,我惊讶地发现我已经成为 Grammarly 的编辑。基于订阅的写作助手推出了一项名为“专家评审——用该公司的话来说,——旨在通过领先的专业人士、作者和主题专家的见解,将您的写作提升到一个新的水平。——
不过,再多读一点,您就会发现这些“见解”实际上并不是“来自”领先的专业人士,或者根本不是任何人。相反,它们是人工智能生成的文本,可能反映也可能不反映 Grammarly 所标注的“领先专业人士”的名字。
“Expert Review 中对专家的引用仅供参考,并不表明与 Grammarly 的任何隶属关系或这些个人或实体的认可。”支持页面下方有几百字的免责声明。
不过,考虑到上面引用的承诺,以及该功能的高度误导性设计,您有其他想法也是情有可原的。
“专家评审”引起我的注意边缘据报道,该功能于去年八月推出。史蒂夫·博尼菲尔德写道,被这种方式滥用的“专家”包括斯蒂芬·金、尼尔·德格拉斯·泰森和卡尔·萨根等著名作家。
其中也包括我。博尼菲尔德写道:
边缘还发现了该专题中提到的许多其他科技记者,包括前任边缘前编辑凯西·牛顿和乔安娜·斯特恩边缘作家莫妮卡·钦,有线——劳伦·古德,彭博社— 马克·古尔曼 (Mark Gurman) 和贾森·施赖尔 (Jason Schreier),的 纽约时报™克什米尔山,大西洋月刊——凯特琳·蒂芙尼,电脑游戏玩家——韦斯·芬伦,吉兹莫多——雷蒙德·黄,数字铸造厂创始人理查德·利百特,汤姆指南前主编马克·斯普瑙尔 (Mark Spoonauer)石头纸霰弹枪editor-in-chief Katharine Castle, and formerIGN新闻总监凯特·贝利。一些专家的描述包含不准确之处,例如过时的职位名称,如果[公司]请求这些人允许引用他们的工作,这些描述本来可以准确更新。
事实上,没有人请求我允许以这种方式使用我的名字,更不用说补偿我的人工智能克隆人现在代表我所做的任何专家审查工作了。(Grammarly 的年度订阅费用为 144 美元。)
我长期以来一直认为,不久之后,人工智能可能会取代我的工作。我只是假设事情发生时有人会告诉我。
我对 Grammarly 感到非常恼火,它的行为与破坏网络的权利这定义了现代人工智能产业。与此同时,我对这些专家评论以及 Grammarly 的总体质量产生了一种病态的好奇心。我经常要求聊天机器人进行编辑,并注意到他们的建议在过去一年中得到了显着改善。但我绝不会想到为写作助理单独付费——特别是考虑到 Grammarly 只是从 OpenAI 和其他 LLM 提供商处转售代币在加价。
但并不是每个人都愿意将他们的 Google 文档复制并粘贴到 ChatGPT 窗口中并要求进行编辑。语法说它有日均用户数 4000 万,现在是我看看他们得到了什么的时候了。(以及“我”给了他们什么。)
二.
我注册了公司付费产品的免费试用并开始工作。首先,我粘贴了同事的初稿Ella Markianos 上周的帐户OpenAI 的抗议活动。然后,我点击了“专家评审”按钮,这是 Grammarly 在其付费产品中提供的十几种工具之一,可以慷慨地描述为将 ChatGPT 提示变成了按钮。
在我自己对埃拉(伟大的)专栏的编辑中,我遵循了多年来从记者同事那里收到的数千次编辑中传承给我的系统。我们可以收紧lede吗?简化一些说明?我浏览并做了笔记。我想知道我们是否可以利用一次抗议的故事来探讨对人工智能的更大抵制,如果可以的话,我们可能想要添加什么背景和分析以及在哪里添加。艾拉和我来来回回了几轮,逐渐迭代,直到得到我们都满意的结果。
Grammarly 中的“专家审阅”并非如此。老实说,这根本不像是一篇评论。单击按钮后,会打开一个框向我解释发生了什么。一系列专家的名字出现在我面前——每个人似乎都不像之前的那样同意这一点。有肖莎娜·祖博夫,普及“监视资本主义”一词的作者,反对大型科技公司的榨取性质。有克莱尔·沃德尔,一名错误信息研究员,其工作研究如何使社区更能抵抗宣传和恶作剧。(我有给她一份吗?)
约翰·卡雷鲁(John Carreyrou)在选秀中名列前茅,他是一位调查记者和畅销书作家,他击败了希拉洛斯。我愿意花大价钱向真正的卡雷鲁寻求建议,他在面对压倒性的法律威胁时坚持不懈地追寻伊丽莎白·霍姆斯公司背后的真相,这堪称传奇。唉,Grammarly 变出的假卡雷鲁只提供了最镇痛的建议。
“尝试从感官意象开始——玻璃塔或空气中粉笔灰回响的圣歌——让观众立即沉浸其中,”假人工智能卡雷鲁建议。– 此建议受到 John Carreyrou 的启发坏血, – 在所读建议下方由人工智能生成的解释。“卡雷鲁采用了一种叙事风格,通过关注生动的细节和感官意象,让读者沉浸其中,在深入研究日期和背景之前有效地将他们吸引到故事中。”
一方面,建议作家在讲故事时融入更多的感官细节和场景设置是很好的。但另一方面,为什么要费心去通过盗用约翰·卡雷鲁这样的作家的形象来洗白这些止痛的建议呢?
答案当然是卡雷鲁是一位工匠大师,他作为作家的权威是不言而喻的。另一方面,语法是一种没有灵魂的机器学习操作,它正在努力保持领先于人工智能的进一步进步,这将使它变得无关紧要。很多人都喜欢像卡雷鲁那样写作。没有人努力像 Grammarly 那样写作。
在草案的后期,“专家评审”提出了卡拉·斯威舍尔(Kara Swisher)的一条建议——这位传奇的硅谷记者和(碰巧)我的前房东。我与她分享了她的“建议”的屏幕截图,该屏幕截图的设计目的是尽可能具有欺骗性:她的名字以蓝色显示在文本旁边,没有暗示这是来自 Grammarly 的付费幻觉。这些“建议”与真实的斯威舍经常给我的直率、清晰和搞笑的建议完全不同。相反,它建议我们插入一段价值可疑的叙事题外话。Grammarly 告诉我,这个建议是受到 Swisher 播客的“启发”。
我问斯威舍她对无薪替身有何看法,以及她可能会对 Grammarly 的高管说些什么。
她以特有的克制回应。
“你们这些贪婪的信息和身份窃贼最好做好准备,让我对你们进行全面的麦康纳攻击,”斯威舍通过短信告诉我。——而且,你也太烂了。——
我将自己的一份草稿加载到 Grammarly 中,然后再次单击“专家审阅”按钮。和以前一样,Grammarly 似乎正在从专家那里寻找“灵感”,而他们肯定是最讨厌这个功能的。
一个冒牌的 Timnit Gebru 提供了一些建议,著名人工智能伦理学家谁是世界上对人工智能的开发和部署最直言不讳的批评者之一;朱莉娅·安格温 (Julia Angwin) 表示纽约时报 意见作家他监督了大量关于科技系统如何损害隐私的调查。
我本来希望自己能成为推荐的审稿人之一,但在今天的测试中,Grammarly 没有让我受到这种侮辱。您无法在产品中选择特定的审阅者;相反,您可以通过单击自动生成的主题标签来完善您的建议。有一次,当我这样做时,Grammarly 提出要向我展示“媒体伦理”方面的幻觉专家,讽刺的力量足以让我不得不暂时放下。
Grammarly 今天拒绝了我采访首席执行官 Shishir Mehrotra 的请求。但它告诉我,为了回应批评,它将允许专家通过电子邮件选择退出该功能Expertoptout@super human.com。该公司通过电子邮件给了我这样的声明:
我们听到了有关此工具的反馈,并感谢那些花时间提出有关功能和专家的深思熟虑问题的参与。
我们同意,用户和专家的产品体验都可以得到改善。该代理旨在帮助用户发现有影响力的观点和学术成果,为他们的工作增加价值。我们希望这些观点背后的人能够更好地控制他们的名字是否被使用,同时为有影响力的声音提供新的方式来接触新的受众。我们的目标是改进专家评审以实现这一结果。
三.
如果不是因为此举表明了纯粹的绝望,我会对 Grammarly 盗用我的肖像以及我的许多朋友和我钦佩的其他作家的肖像感到更加恼火。2009 年,Grammarly 推出时,一款独立的写作助手成就了一项出色的业务;到 2026 年,它会成为一种商品功能。任何有权使用 Claude、ChatGPT 或 Gemini 的人都可以进行编辑,这使得 Grammarly 的核心产品看起来就像是一个遗迹。
Grammarly 知道这一点,这就是为什么它在 2024 年收购了协作平台 Coda,并于去年收购了电子邮件工具 Super human。10 月,Grammarly 将整个公司重新命名为超人,一封公关电子邮件将其描述为“用于应用程序和代理的人工智能原生生产力平台”,我将其描述为一堆被高估的意大利面条。(2021 年,在远程工作和零利率的高峰期,投资者看重 Grammarly130亿美元。祝你好运!)
尽管如此,Grammarly 在这里所做的并不是那个与构建底层大语言模型的公司不同。将你的写作草稿粘贴到聊天机器人中,输入“按照凯西·牛顿的方式编辑”,聊天机器人会很高兴地答应。它也不会征求我的许可。肯定不会付钱我。与 Grammarly 不同的是,它甚至不会费心(用细则)提醒您我并没有有意义地参与其中。
在这方面,“专家评审”实际上比典型聊天机器人的行为更糟糕吗?我想是的,但区别比我希望的要窄。
不同之处在于,Grammarly 采用了一种潜在能力(每个法学硕士都存在这种能力)并将其转化为产品功能。它策划了一份真实人物名单,让模型自由发挥,代表他们提出听起来合理的建议,并将其全部放在订阅后面。这是一种故意选择,在不涉及真人的情况下将他们的身份货币化,这很糟糕。
但对于“专家评审”和一般的聊天机器人来说,我潜在的不适是相同的。我发表的大部分作品似乎已经在这些模型中,以我从未同意也永远不会完全理解的方式塑造它们的输出。Grammarly 只是不礼貌地将我的名字写在上面。
然而,更大的问题仍然是看不见的:我的作品以及其他所有作家的作品现在都被聪明到不会告诉我们的系统所使用。

正在关注
伊朗是第一次人工智能战争
发生了什么:美国使用了一款名为Maven智能系统在对伊朗发动袭击的头 24 小时内,它就袭击了 1000 多个目标。Maven 是由帕兰提尔,并由人择——克劳德。它为军事打击提供了目标定位和目标优先级。为此,它获取了大量机密情报数据,包括来自卫星和监视系统的信息。
(你可能还记得一个虚构的人工智能系统,它具有类似的目的:天网,从终结者电影)。
今天,Anthropic 升级了与五角大楼的法律斗争,因为该公司因拒绝同意军方新的“所有合法使用”标准而被指定为“供应链风险”(见下文)。一位熟悉情况的消息人士告诉华盛顿邮报克劳德对军事行动足够重要,如果人类要求政府停止在伊朗使用它,特朗普政府将迫使该公司继续提供它,直到找到替代品。
截至去年 5 月,已有 20,000 名军事人员使用 Maven。它是其中之一人工智能工具五角大楼在情报、任务规划和后勤方面采用了一些工具,这些工具不会自行做出杀戮决定,而且看起来更像 ChatGPT,而不是杀手机器人。
高达 90% 的军事人员担任支持角色,因此这些应用程序有很大机会加快军队的工作。在伊朗使用马文和克劳德加速了战役并降低了伊朗的反击能力。
但不完全是:伊朗击中三亚马逊- 在巴林和阿联酋拥有的数据中心,影响了该地区数百万人的互联网服务。与此同时,海底光缆连接海湾地区与非洲、南亚和东南亚的数据中心现在实际上已对商业流量关闭。这些电缆穿过红海和霍尔木兹海峡,这些地方现在都是战区。
阿联酋和巴林都将自己定位为人工智能中心,大力投资人工智能基础设施。战时对其系统的破坏使人对在该地区投资人工智能基础设施是否明智产生了怀疑。
为什么我们关注:虽然人工智能系统在 2023 年乌克兰和以色列的军事行动中首次在军事上发挥了重要作用,但本周人类似乎正面临着第一场人工智能战争。
人工智能系统现在已经足够有用,政府正在考虑在必要时强制保留它们。数据中心现在是明显的军事目标。
我们的第一场人工智能战争,就像之前的每一场战争一样,都是丑陋的。
调查员相信美军对伊朗一所女子学校发动袭击,造成数十名儿童死亡。我们不知道人工智能以什么身份参与这些攻击。原则上,人工智能系统至少有可能承担重大责任。(人工智能增强的行动也可能导致平民伤亡减少。)
我是一名撰写有关消费者聊天机器人的记者,而不是国家安全专家。目前,我实际上无法告诉你美国将在伊朗打多久的战争,或者人工智能将如何改变冲突。
我所知道的是,很多人会在伊朗死去。考虑到过去几十年中东国家建设的历史,无论伊朗政治发生什么变化,我都不认为它会证明人类生命的代价是合理的。这一次,一些杀戮将使用创新的 B2B 人工智能应用程序来完成,这绝对让我感到不安。
人们在说什么:“阿联酋确实想成为人工智能的主要参与者,”克里斯·麦奎尔曾在拜登白宫担任国家安全委员会官员的他告诉媒体守护者。“他们的政府对这项技术有着非常坚定的信念,可能比世界上任何其他政府都更有信心,如果出现与此相关的安全问题,那么他们将不得不以某种方式非常迅速地解决这些问题。”
麦奎尔说,如果中东要成为人工智能中心,就需要进行重大改变:“如果你真的要加倍努力,也许这意味着数据中心的导弹防御。”
“值得注意的是,我们已经处于人工智能从假设发展到支持当今现实世界操作的阶段,”保罗·沙尔,执行副总裁新美国安全中心,告诉邮政。– 关键的范式转变是人工智能使美国军方能够以机器速度而不是人类速度开发目标包。 –
沙尔表示,如果人工智能出错,就会产生严重的负面影响。...当事关生死存亡时,我们需要人类检查生成式人工智能的输出。”
Ø埃拉·马基亚诺斯
人类起诉五角大楼
发生了什么: 人择 提交了两个针对国防部提起诉讼,试图阻止政府禁止公司使用它并将其归类为供应链风险。
与此同时,特朗普政府已起草民用人工智能合同的新指导方针要求公司同意其技术的“所有合法用途”——他们对 Anthropic 的挑战进行了报复。
人类法庭文件声称其指定可能会损失数十亿美元的收入,并表示由于目前的情况,企业客户已经对与他们合作犹豫不决。
Anthropic 的一些商业伙伴仍然站在它一边,尽管只是半心半意。微软说即使在被判定存在安全风险之后,它仍将继续向客户提供 Anthropic 的技术——唯一的例外是国防部。
一组超过40名员工在谷歌和开放人工智能— 包括杰夫·迪恩谷歌首席科学家兼 Gemini 负责人提交了一份非当事人意见陈述,支持 Anthropic 的诉讼。简报称,五角大楼的认定“是损害公共利益的不当报复”,而人类对国内大规模监视和全自动武器的担忧是真实存在的,需要做出回应。
为什么我们关注:对于科技史上发展最快的公司之一来说,这场法律斗争可能是生死攸关的,有可能对 Anthropic 的核心企业业务造成重大打击。它还将影响科技公司在多大程度上可以制定与政府的合同条款。以及政府如何对提供他们不喜欢的条款的公司进行报复。
人们在说什么:在 X 上,法学教授和劳法尔高级研究总监艾伦·罗森施泰因已经监控情况。他对 Anthropic 在加州法庭案件中的论点的看法:“这是一个非常强烈的投诉,我认为 Anthropic 将获胜,”他写道。他说,这一论点最有力的部分是“法定 (APA) 理由”:Anthropic 认为,国防部在没有遵循国会要求的程序的情况下将 Anthropic 指定为供应链风险,从而违反了《行政保护法》。
但他对第一修正案对其合同的保护有异议:“我认为 Anthropic 对于对其公开声明的报复有强有力的 1A 论据,但我希望它实际上并不是在争论其使用政策*本身*受到 1A 保护(从某种意义上说,如果政府希望 Anthropic 有不同的使用政策,那将是违反 1A 的行为)。这会将 1A 扩展得太远。 –
开放人工智能研究员贾森·沃尔夫在 X 上写道,“我签署了这份简报,反对对 Anthropic 进行供应链风险认定”,并“支持限制当前型号的国内监视和自主武器应用的重要性。”沃尔夫添加了,“非常感谢所有为实现这一目标而努力工作的人们。”
Ø埃拉·马基亚诺斯

支线任务
谷歌和亚马逊加入微软说他们会继续工作与人择国防部将 Anthropic 指定为供应链风险后,对非国防项目进行了调查。OpenAI 的机器人技术领导者凯特琳·卡里诺夫斯基因担心而辞职国内监视和自主武器之后开放人工智能宣布更新后的国防部合同。
一些美国中期候选人如何利用社交媒体帖子和网站上的小众流行语来吸引财力雄厚的人加密货币和人工智能超级 PAC。
两名 DOGE 员工使用过的ChatGPT 将确定国家人文捐赠基金价值超过 1 亿美元的拨款,以削减与 DEI 相关的拨款。参议院通过了一项更新版本1998 年《儿童和青少年在线隐私保护法案》(称为 COPPA 2.0)的一部分,将为年轻用户提供更现代的保护。虽然该法案的多个版本已在参议院获得通过,但没有一个版本在众议院获得通过。
美国商务部起草了一项规则需要各国哪些公司大量购买英伟达和AMD人工智能芯片投资美国人工智能基础设施。
在推特股东审判,前首席执行官帕拉格·阿格拉瓦尔和首席财务官内德·西格尔埃隆·马斯克 (Elon Musk) 在 2022 年声称他们在 Twitter 的垃圾邮件账户百分比问题上对他撒了谎,对此提出了质疑。
英国计划推迟为人工智能训练修改版权规则。对为期两个月的磋商的回应没有支持其任何提案,这些提案引发了该国创意产业的抗议。
澳大利亚的上网年龄限制该法案生效,要求平台验证用户年满 18 周岁才能访问包括色情和 R 级游戏在内的内容。印度尼西亚通讯部长表示,该国将禁止 YouTube、TikTok 和 Instagram 等“高风险”平台16岁以下儿童。一个看看近几个月来,一些国家开始禁止儿童使用社交媒体,包括澳大利亚、丹麦、法国、德国、希腊、印度尼西亚、马来西亚和西班牙。
美国2月就业报告表明科技行业 2022 年后的失业情况现已超过 2008 年和 2020 年的低迷时期。Anthropic 推出了一个人工智能驱动的白领工作岗位破坏预警系统,称其显示“有限的证据”人工智能失业到目前为止。对 1,488 名美国工人的研究发现人工智能的使用可以减少倦怠,但也会导致“人工智能大脑崩溃”,即由于使用超出认知能力的人工智能工具而产生的精神疲劳。(这与“人工智能大脑冻结”不同,后者是由于使用人工智能工具而导致的)聊天GPT当喝一个思乐冰.)
一个劳埃德银行-一项针对英国 5,000 人的委托研究发现,超过其中一半正在使用生成式人工智能平台提供财务建议。
一份报告发现,来自 Anthropic、Google、OpenAI 和人工智能愿意提供便利学术造假,帮助非研究人员提交捏造的论文arXiv。
甲骨文和 OpenAI被遗弃的他们计划在融资纠纷中扩建德克萨斯州 Stargate 数据中心。元正在考虑租赁计划中的扩建场地。OpenAI收购AI安全平台提示富,他们将把它集成到他们的 AI Frontier 业务平台中。
OpenAI 表示将推迟在 ChatGPT 中推出“成人模式”批评后。
莫兹拉据说Claude Opus 4.6发现超过 100 个错误1 月份的两周内,Firefox 中出现了 14 个严重级别的漏洞。法学硕士发现的错误比两个月内通常报告的错误还要多。
谷歌发布了Workspace CLI,让代理AI工具更容易访问Gmail、日历、云端硬盘、文档等。字母表给了桑达尔·皮查伊一个新的三年薪酬协议价值高达 6.92 亿美元,其中与增长相关的股票激励价值高达 3.5 亿美元韦莫和翼。
Microsoft 推出了 Copilot Cowork,将 Anthropic 的 Claude Cowork 技术集成到 Microsoft 365 Copilot 中,并使用 Work IQ 来基础其行动工作数据。
软银正在寻求贷款高达400亿美元是其有史以来最大一笔借款,用于资助其对 OpenAI 的投资。
云提供商一起人工智能正在洽谈融资约 10 亿美元,投前估值为 75 亿美元,高于 2025 年的 33 亿美元。

那些好帖子
每天有更多好帖子,关注 Casey 的 Instagram 故事。

(链接)

(链接)

(链接)

与我们交谈
向我们发送提示、评论、问题以及人工智能生成的虚假凯西·牛顿建议:凯西@platformer.news。阅读我们的道德政策在这里。