作者:Kelsey Piper
现在是成为一个高度的AI工程师的好时机。据报道,要吸引领先的研究人员远离OpenAI和其他竞争对手,据报道,Meta提供了总薪酬套餐超过1亿美元。AI顶级工程师现在像足球超级巨星一样得到补偿。
很少有人会不得不努力解决是否要去马克·扎克伯格(Mark Zuckerberg)的超级智能冒险,以换取足够的钱,再也不必再工作(彭博专栏作家马特·莱文(Matt Levine)指出这是扎克伯格的基本挑战:如果您付钱给一个月后退休的人,他们很可能会在一个月后辞职,对吗?您需要某种精致的薪酬结构,以确保它们能够变得不可估量的富裕而不简单地退休。)
我们大多数人只能梦想遇到这个问题。但是,我们中的许多人偶尔不得不解决是否要承担道德上可疑的工作(拒绝保险索赔?先令加密货币?使手机游戏更习惯养成习惯?)来支付账单。
对于在AI中工作的人,该道德困境被增压成荒谬的地步。AI是一种荒谬的高风险技术,无论是与该领域的领导者在一起警告它可能会杀死我们所有人。少数人才华横溢超级智能AI可以极大地改变技术的轨迹。他们甚至有可能在道德上这样做吗?
一方面,领先的人工智能公司为工人提供了赚取不可思议的财富的潜力,还为非常有意义的社会善良做出了贡献,包括可以加速的生产力的工具医疗突破和技术发现,使更多的人可以编码,设计并做任何其他可以在计算机上完成的工作。
另一方面,我很难说WAIFU工程师Xai现在正在雇用'将负责使Groksrisquârisquégrighionai更加习惯养成任何社会利益的角色,实际上,我担心这种机器人的兴起会造成社会的持久损害。我也对已记录的chatgpt案件感到兴奋鼓励对患有精神疾病的脆弱用户的妄想信念。
更令人担忧的是,研究人员竞争建立强大的ai代理人可以独立编写代码,在线购买,与人互动并雇用分包商进行任务的系统 - 遇到了很多AIS可能的迹象故意欺骗人类甚至对我们采取戏剧性和敌对的行动。在测试中,AI试图勒索他们的创造者或将自己的副本发送给可以更自由运行的服务器。
目前,AIS仅在给出精确设计的提示时才表现出这种行为,旨在将其推向极限。但是,随着越来越多的AI代理人在世界上居住,在正确情况下可能发生的任何事情,无论多么罕见,有时都会发生。
在过去的几年中,AI专家之间的共识已经从试图杀死我们的敌对的AIS转变为完全不可思议的,对于敌对的AIS只是试图在精心设计的场景中杀死我们。”伯尼·桑德斯不完全是技术炒作人 - 现在是最新的政治家警告说,随着独立AIS变得更加强大,他们可能会从人类那里获得权力。正如他所说的那样,这是一个世界末日的情况,但它几乎不再是一个遥不可及的情况了。
AIS本身是否曾经决定杀死或伤害我们,他们都可能落入了这样做的人的手中。专家担心AI会使这两者都变得更加容易流氓个人到工程师瘟疫或者大规模暴力计划,以及为了使各州超过他们长期以来梦dream以求但从未实现的公民的高度。
报名这里探索世界面临的重大,复杂的问题,以及解决这些问题的最有效方法。每周发送两次。
原则上,如果实验室设计并遵守岩石安全计划,可以缓解许多这些风险,从而迅速响应野外AIS的恐怖行为迹象。Google,Openai和Anthropic确实有安全计划,这对我来说似乎完全不足,但总比没有好。但是实际上,面对AI实验室之间激烈的竞争,缓解措施通常会陷入困境。几个实验室有削弱了他们的安全计划随着他们的模型即将达到预先指定的性能阈值。同时,xaiGrok的创建者正在推动发行版,没有明显的安全计划。
更糟糕的是,即使是从深刻而真诚地确保AI负责任地发展的实验室,经常会经常开发AI稍后改变了路线由于该领域的巨大经济激励措施。这意味着,即使您在Meta,Openai或具有最佳意图的人类学工作中工作,您为建立良好AI成果的所有努力都可以将其全部重定向到其他方面。
我去过观看这个行业进化了七年。尽管我通常是一个技术上的人,他想看到人类的设计和发明新事物,但我的乐观情绪是通过目睹AI公司公开承认其产品可能杀死所有人的乐观情绪,然后采取了似乎完全不足的预防措施。越来越多的人感觉就像是AI比赛正在转向悬崖。
鉴于所有这些,我认为在边境AI实验室工作是不道德的,除非您给出非常仔细考虑您的工作将使您的工作更接近成果的风险,和您有一个具体的,可辩护的原因,为什么您的贡献会使情况变得更好,而不是更糟。或者,您有一个Ironclad案例,即人类根本不必担心AI,在这种情况下,请发布它,以便我们其余的人可以检查您的工作!
当大量金钱被危及时,它很容易自我。但是,我不会说,从字面上看,在Frontier AI中工作的每个人都从事自欺欺人。一些工作记录了AI系统能够和探索他们如何有价值的工作。DeepMind,OpenAI和人类的安全和结盟团队已经做得很好,并且做得很好。
但是任何人推动飞机起飞,同时确信它有20%的机会撞车将是不负责任的,我认为尝试尽可能快地建造超智能。
毕竟,一亿美元不值得加快亲人的死亡或人类自由的终结。最后,只有当您不能只能从AI中赚钱,还可以帮助您做得很好,这是值得的。
可能很难想象任何人拒绝令人难以置信的财富,只是因为面对理论的未来风险,这是正确的事情,但我知道有很多人确实做到了。我希望在未来几年中会有更多的东西,因为Grok的最近Mechahitler崩溃从科幻变成现实。
最终,对于人类的未来,未来是否可以取决于我们是否可以说服历史上一些最富有的人注意到他们的薪水取决于他们的薪水,这取决于他们没有注意到:他们的工作可能对世界真的非常有害。