特征周六,在旧金山的Silverstone Cafe上,一群激进分子聚集在一起,讨论了制止人工智能进一步发展的计划。
他们的非暴力公民抵抗组织的名称,停止AI,使其任务清晰。
该组织希望禁止大多数情况下尚不存在的某些东西由Openai定义作为“在大多数经济上有价值的工作中都超过人类的高度自治系统”。
停止AI概述一组更广泛的目标在其网站上。例如,“我们希望政府迫使AI公司关闭与创建通用AI模型有关的一切,破坏任何现有的通用AI模型,并永久禁止其发展。”
为了回答“阻止AI想要禁止所有AI?”的问题,该小组的回答是:“不一定,只是使人类活着的任何必要的一切。”
该组织立即在2月22日星期六在Openai的旧金山总部组织另一场抗议发现死了在2024年11月26日在他的旧金山公寓里出来举报人关于所谓的OpenAI版权侵权。
我们的主要需求是,我们试图永久禁止人工通用情报的发展或AGI
Balaji的死最初被裁定为自杀,但当时没有释放任何支持文件。在没有结论性证据的情况下,猜测传播在社交媒体上。12月,他的父母说他们雇用了一名私人调查员,并委托第二次尸检,而不同意警方的调查结果。
星期五,旧金山县医学检查员的报告证实了巴拉吉去世自杀而不是犯规比赛。
Balaji的母亲Poornima Rao仍然不相信。在周日的社交媒体帖子中,她说,“我们上周五收到了尸检报告。我们的律师和我们不同意他们的决定。他们的决定有很多不一致之处。基本假设不支持报告中的事实。我们继续调查。我们已经发送了头发。[]测试公寓。
停止AI已在Openai的办公室和其他地方进行了事先抗议。该组织的两个联合创始人Sam Kirchner和Guido Reichstadter因公民抗命而被捕,原因是去年10月阻止了服装的入口。他们的审判旧金山于2025年2月18日星期二开始寄存器了解被告打算要求推迟诉讼的延续。
“……我们正试图永久禁止人工通用情报或AGI的发展。”寄存器在面试中。“而且粗略地说,这是比所有技术领域的所有人类专家都更有能力的系统。”
引用AI Luminary杰弗里·欣顿(Geoffrey Hinton),他估计约50%AI在未来二十年内超越人类情报的机会,Kirchner像他的同伴AI敌人一样,担心人类可能会失去控制。
“ AI领域的专家说,没有证据表明我们可以控制该系统,超智能系统,并且在将来的某个时候,它永远不会无意中导致我们的灭绝,类似我们无意间造成了许多不太聪明的物种的灭绝,”基尔奇纳说。
是天网终结者电影的场景,但比机器恶意更为不幸。
或作为Elon Musk说在2014年,它是“召唤”恶魔...
那是在马斯克(Musk报废拜登时代的AI安全规则。
Kirchner说,他在机械和电气工程方面具有背景,而Reichstadter担任珠宝商已有20年,并获得了物理和数学的本科学位。其他小组成员也有一些技术背景:Finn van der Velde拥有计算机科学的本科学位,尤其是AI,并在Radboud University中留下了AI Master的计划“从事AI安全工作”,正如他的LinkedIn个人资料所说的那样。德里克·艾伦(Derek Allen)进行了一些编程。据基尔奇纳(Kirchner)称,只有被确定为丹尼斯(Dennis)的兼职小组参与者正在攻读AI的硕士学位。
我们主要抗议的公司是Openai。他们在网站上陈述的任务是建立人工通用情报
当被问及是什么促使他反对AI的原因时,Kirchner说:“我们主要抗议的公司是Openai。他们在网站上陈述的任务是建立人工通用情报。比大多数人在经济上有效。
“他们确实是指所有人类。但是,即使您可以建立超智慧或AGI,它为我们做了一切,没有人有工作,但是每个人都从这种超级智能的产出中获得了普遍的基本收入,每个人都可以24/7全天候聚会,而不必工作,我个人会发现这有些沮丧。
“我认为,如果一切都为我们完成,生活中没有意义的问题。”
基尔奇纳(Kirchner)指出了欣顿对AI超智能导致人类灭绝的担忧,“从根本上讲,这是不好的。我们要抗议这一点,直到我们全都死了或入狱。我们为家庭的生活感到担忧。”
作为一个总体目标,基尔奇纳说,目的是从3.5%的美国人口集结起来,这估计是变革的转折点。
他说:“高水平的目标是试图让3.5%的美国人口与AI进行和平抗议。”“那是1100万人,似乎很多。”
基尔奇纳(Kirchner)解释说,根据政治科学家埃里卡·切诺维斯(Erica Chenoweth)一个国家人口的支持水平可以推翻专政政府或达到政治要求。
他说:“如果这是阻止这些公司建立威胁所有人生命的东西所需的,那就是我们要做的。”
基尔奇纳说:“目前,世界上有一些团体使用我们正在谈论的方法,具有非暴力的公民抵抗,例如障碍和障碍公司办公室,例如在英国停止石油等团体。”
“在2024年,他们成功实现了第一个政治需求,这要求英国政府不再向英国的石油公司颁发新的石油和天然气许可证。他们以英国不到1%的方式做到了这一点人口参与抗议。
“因此,这实际上是我们的目标是:采取诸如停止石油之类的团体的策略并将其应用于抗议AI。”
Kirchner说,尽管Openai主要试图避免与该集团互动,但该公司安全团队的成员对Openai试图建立的东西表示担忧,但确实与小组成员进行了民事讨论。
“我们正在努力与OpenAI和任何AI公司的人交谈,因为我的意思是,这些公司是由人组成的,他们有孩子,他们知道他们建立的东西可能有可能冒着生命的风险他们爱的人。”他解释说。
基尔奇纳(Kirchner)说,除了在社交媒体讨论中意识到其他参与者是一个机器人之外,他还没有亲自受到AI的影响。但是他说,他知道由于AI而失业的图形设计师。
停止AI目前有四名全职成员,在旧金山湾区约有15名左右的志愿者,他们兼职。
人工通用情报的含义是如此巨大和危险
基尔奇纳说:“我们刚刚在街上遇到了其中的一些人,就像,'是的,这些公司正试图建立终结者,这太疯狂了',其中一些公司担心失业。”“因此,如果您愿意的话,我们不仅试图专注于生存威胁或灭绝威胁。你知道,民主或人类灭绝。”
在周末的Silverstone Cafe会议上,Finn van der Velde认为不应该存在开发AGI的公司。
Van der Velde说:“人工通用情报的含义是如此巨大和危险,以至于我们只是不希望这会发生。”“因此,这实际上意味着我们可能需要一项国际条约,而总体各国政府同意我们不建立AGI。
“因此,这意味着要解散像Openai这样的公司,该公司特别具有建立AGI的目标。”
相邻的目标是调节计算功率,使得没有人能够训练AGI模型。
Guido Reichstadter说,问题是这些系统不是以可以审核和理解的方式来构建的。
当被问及对AI问题的法律责任时,Reichstadter说:“这是有必要的,但这还不够,因为沉思领域内的危害类型是灾难性的。
“因此有必要责任,但是我们需要禁止开发非常非常强大的系统,尤其是那些可以从事完全一般认知工作的系统。”
小组成员知道,除了大规模破坏和有毒化学物质的武器之外,由于它们太危险而被禁止的技术和物质相对较少。
基尔奇纳指出氯氟化合物或CFC,但承认Baning Agi将是一场艰苦的战斗。
他说:“这是一个非常困难的问题,当您知道强大的力量对我们不利时,实施很高的禁令。”“但是,如果那是防止人类灭绝的必要条件,那么即使我们不成功,我们也会出去战斗并试图实现这一目标。”®