作者:Kylie Robison
30美元一群人的AI研究人员,哲学家和技术人员聚集在悬崖上,俯瞰着悬崖,俯瞰了金门大桥,他们聚集在一起讨论人类的终结。
周日下午的研讨会,称为“值得继任者”,围绕着挑衅的想法来自企业家丹尼尔·法格拉(Daniel Faggella):高级人工智能的道德目标应该是创造一种如此强大和明智的智慧形式,以至于您很乐意宁愿它(而不是人类)决定人生本身的未来道路。”
Faggella在他的邀请中明确了这个主题。他通过X DMS写信给我。``永恒地成为人类工具的Agi。
一个充满未来派幻想的政党,与会者讨论人类作为物流问题而不是隐喻性的党派,可以描述为利基市场。如果您住在旧金山并在AI工作,那是一个典型的星期日。
大约100位客人护理非酒精鸡尾酒,并在底盘上面对太平洋的窗户附近的奶酪板上咬着奶酪盘,然后聚会,聆听有关情报未来的三场演讲。一位与会者穿着一件衬衫,说“库尔茨威是对的,似乎是指雷·库尔兹维尔(Ray Kurzweil)预测机器的未来主义者将在未来几年中超越人类的情报。另一个穿着一件衬衫说'这是否有助于我们获得安全的Agi?
Faggella告诉Wired,他举办了这项活动,因为“大型实验室,知道Agi可能会结束人类的人,不要谈论它,因为激励措施不允许它,并引用了Elon Musk,Sam Altman和Elon Musk,Sam Altman和Elon Musk,and Sam Altman和Demis Hassabis,他说的是Agi杀死我们所有人的可能性很坦率的。仍然谈论风险与先进的AI相关,尽管这并没有阻止他向前赛)。
在LinkedIn,Faggella上吹牛AI创始人,所有顶级AI实验室的研究人员以及大多数关于AGI的重要哲学思想家。
第一位发言人,Ginevera Davis位于纽约的作家警告说,人类价值观可能不可能转化为AI。她说,机器可能永远不会理解有意识的感觉,并且试图将人类的偏好对未来的系统进行硬构态。取而代之的是,她提出了一个崇高的想法,称为“宇宙对齐”,建立了AI,可以寻找我们尚未发现的更深入,更普遍的价值观。她的幻灯片经常显示出一种看似AI产生的技术 - 乌托邦的形象,一群人聚集在草丘上,俯瞰着远处的未来派城市。
批评机器意识的批评者会说,大型语言模型只是由一群研究人员创造的一个随机鹦鹉,其中一些人在Google工作,他们写道在著名的论文中LLM实际上并不理解语言,而只是概率机器。但是这场辩论不是研讨会的一部分,在这里,演讲者认为超级智能即将来临,快速。