cURL Error Code: 7 cURL Error Message: Failed to connect to 127.0.0.1 port 9200: Connection refused cURL Error Code: 7 cURL Error Message: Failed to connect to 127.0.0.1 port 9200: Connection refused
作者:Connie Loizos
克里斯·勒哈恩 (Chris Lehane) 是业内最擅长让坏消息消失的人之一。克林顿时代的阿尔·戈尔 (Al Gore) 的新闻秘书、Airbnb 的首席危机经理,经历了从这里到布鲁塞尔的每一次监管噩梦——勒哈恩 (Lehane) 知道如何扭转局面。现在,他已经完成了可能是他迄今为止最不可能完成的任务:作为 OpenAI 全球政策副总裁,他的工作是让全世界相信 OpenAI 真正关心人工智能的民主化,而该公司的行为却越来越像其他所有声称与众不同的科技巨头。
我在舞台上和他一起度过了 20 分钟提升本周早些时候在多伦多举行的会议——用 20 分钟讨论讨论要点,讨论侵蚀 OpenAI 精心构建的形象的真正矛盾。这并不容易,也并不完全成功。Lehane 确实很擅长他的工作。他很讨人喜欢。他听起来很有道理。他承认存在不确定性。他甚至谈到凌晨 3 点醒来,担心这是否真的会给人类带来好处。
但当你的公司传唤批评者、耗尽经济萧条的城镇的水和电、让死去的名人起死回生以维护你的市场主导地位时,良好的意图并没有多大意义。
该公司的 Sora 问题实际上是其他一切问题的根源。该视频生成工具于上周推出,其中似乎包含受版权保护的材料。对于一家已经被《纽约时报》、《多伦多星报》和半个出版业起诉的公司来说,这是一个大胆的举动。从商业和营销的角度来看,它也很出色。这款仅限邀请的应用程序飙升至应用商店顶部当人们创建自己的数字版本时,OpenAI 首席执行官 Sam Altman;《南方公园》中的皮卡丘和卡特曼等角色;还有像图帕克·沙库尔这样已故的名人。
当被问及是什么促使 OpenAI 决定推出带有这些角色的最新版本的 Sora 时,Lehane 表示 Sora 是一种“通用技术”,就像印刷机一样,为没有天赋或资源的人们提供了民主化的创造力。他在台上说,即使是他——一个自称创意零的人——现在也可以制作视频了。
他所回避的是,OpenAI 最初“让”版权持有者选择不将他们的作品用于训练 Sora,这并不是版权使用的典型方式。然后,在 OpenAI 注意到人们真的很喜欢使用受版权保护的图像后,它“进化”为选择加入模型。这不是迭代。这就是测试你能逃脱多少惩罚。(顺便说一句,尽管电影协会发出一些噪音上周关于法律威胁,OpenAI 似乎已经逃脱了很多惩罚。)
自然,这种情况让人想起出版商的愤怒,他们指责 OpenAI 在不分享经济利益的情况下对他们的作品进行培训。当我向勒汉追问出版商被排除在经济之外时,他援引了合理使用这一美国法律原则,旨在平衡创作者权利与公众获取知识的权利。他称之为美国科技主导地位的秘密武器。
Techcrunch 活动
旧金山 | 2025 年 10 月 27-29 日
或许。但我最近采访阿尔·戈尔——Lehane 的老老板——意识到任何人都可以简单地向 ChatGPT 询问此事,而不用阅读我在 TechCrunch 上的文章。“它是‘迭代’,”我说,“但它也是一种替代。”
勒哈恩听完之后不再滔滔不绝。“我们都需要解决这个问题,”他说。——坐在台上说我们需要找出新的经济收入模式,这真的很油嘴滑舌、很容易。但我想我们会的。”(据我所知,我们正在边走边弥补。)
然后是基础设施问题,没有人愿意诚实回答。OpenAI 已经在德克萨斯州阿比林运营着一个数据中心园区,最近还与甲骨文和软银合作,在俄亥俄州洛兹敦建立了一个大型数据中心。Lehane 将人工智能的采用比作电力的出现,并称那些最后使用电力的人仍在追赶,但 OpenAI 的 Stargate 项目似乎瞄准了一些经济困难的地方,以建立设施以及对水和电力的巨大需求。
在我们坐下来询问这些社区是否会受益或只是买单时,勒哈恩谈到了千兆瓦和地缘政治。他指出,OpenAI 每周需要大约 1 吉瓦的能源。中国去年的装机容量为 450 吉瓦,另外还有 33 座核设施。他说,如果民主国家想要民主的人工智能,他们就必须竞争。“我内心的乐观主义者说这将使我们的能源系统现代化,”他一边说,一边描绘了一幅美国通过改造电网实现再工业化的图景。
这很鼓舞人心,但它并不能回答洛兹敦和阿比林的人们是否会在 OpenAI 生成臭名昭著的 B.I.G. 的视频时看到他们的水电费飙升。非常值得注意的是,视频生成是能源最密集的人工智能在那里。
还有人力成本,在我们采访的前一天,塞尔达·威廉姆斯 (Zelda Williams) 登录 Instagram 恳求陌生人停止向她发送人工智能生成的她已故父亲罗宾·威廉姆斯 (Robin Williams) 的视频,这一点就变得更加明显。—你不是在创作艺术,”她写道。“你们正在从人类的生活中制造出令人厌恶的、过度加工的热狗。”
当我询问该公司如何协调这种亲密伤害与其使命之间的关系时,Lehane 回答说,他谈到了流程,包括负责任的设计、测试框架和政府合作伙伴关系。“这些东西没有剧本,对吧?”
Lehane 在某些时候表现出了脆弱性,他说他认识到 OpenAI 所做的一切“随之而来的巨大责任”。
无论这些时刻是否是为观众设计的,我相信他。事实上,当我离开多伦多时,我以为我观看了一场政治信息传递的大师班——勒汉一边穿线,一边回避有关公司决策的问题,据我所知,他甚至不同意这些问题。然后新闻报道了本来就很复杂的情况。
Nathan Calvin 是一位在非营利倡导组织 Encode AI 从事人工智能政策工作的律师,他透露,在我与多伦多的 Lehane 交谈的同时,OpenAI 已经发送了一份卡尔文家的副警长在华盛顿特区,晚餐期间向他发出传票。他们想要他与加州立法者、大学生和 OpenAI 前员工的私人信息。
Calvin 表示,此举是 OpenAI 针对加州 SB 53 人工智能新法规的恐吓策略的一部分。他表示,该公司将与埃隆·马斯克 (Elon Musk) 正在进行的法律斗争作为攻击批评者的借口,暗示 Encode 是由马斯克秘密资助的。Calvin 补充说,他与 OpenAI 反对加州人工智能安全法案 SB 53 进行了斗争,当他看到 OpenAI 声称它“有助于改进该法案”时,他“真的笑出了声”。在社交媒体上,他接着具体地称 Lehane 为“政治黑暗的大师”艺术。 –
在华盛顿,这可能是一种恭维。对于 OpenAI 这样的公司来说,其使命是“打造造福全人类的人工智能”,这听起来像是一种控诉。
但更重要的是,即使是 OpenAI 自己的人也对自己的未来感到矛盾。
正如我的同事马克斯上周报道《空 2》发布后,一些现任和前任员工在社交媒体上表达了他们的疑虑。其中包括 OpenAI 研究员、哈佛大学教授 Boaz Barak,他写了关于《索拉2》的文章“技术上令人惊叹,但庆幸自己避免了其他社交媒体应用程序和深度造假的陷阱还为时过早。”
周五,OpenAI 任务协调负责人 Josh Achiam 在推特上发布了一些关于 Calvin 指控的更引人注目的内容。阿希姆在评论开头说,这些“可能对我的整个职业生涯构成风险”,然后在谈到 OpenAI 时写道:“我们不能做一些让我们成为令人恐惧的力量而不是善良力量的事情。”我们对全人类负有责任和使命。履行这一职责的门槛非常高。”
值得停下来思考一下。一位 OpenAI 高管公开质疑他的公司是否正在成为“一支令人恐惧的力量,而不是一个善良的力量”,这与竞争对手的拍摄或记者的提问不相上下。这是一个选择在 OpenAI 工作的人,他相信自己的使命,尽管存在职业风险,但现在他承认良心危机。
这是一个具体的时刻,随着 OpenAI 向通用人工智能迈进,其矛盾可能只会加剧。这也让我想到,真正的问题不是 Chris Lehane 能否推销 OpenAI 的使命。问题在于其他人——更重要的是,包括在那里工作的其他人——是否仍然相信这一点。