在其新的每周印刷版的第一期中,伦敦标准报以人工智能生成的国家美术馆梵高:诗人与情人展览评论的形式进行了一项实验,其风格为已故艺术评论家布莱恩·休厄尔。
这种性质的实验通常旨在将现实世界的观察与一般理论联系起来。为了成功地证实或拒绝伟大想法的实验,需要明确的设计和目的。有关标准实验设计的信息很少,有关训练数据和所使用算法的细节也不清楚。但目的又是什么呢?
这是对艺术评论家角色的一次尝试性探索吗?它的目的是否在于引发更广泛的社会对话,讨论那些可替代和不可替代的人类工作?这是一个关于技术如何帮助我们应对失去宝贵生命的道德实验吗?或者只是另一个图灵测试来判断人工智能距离人类智能还有多远?
如果目标无法确定,也许这次审查可以被视为另一种意义上的实验性,因为允许对更多的东西进行尝试性探索。关于如何将人类简化为机器的哲学问题。
本文是我们的艺术现状系列的一部分。这些文章应对了艺术和遗产行业的挑战,并庆祝了胜利。
一种可能性是,这项新技术可能会导致以色列学者和作家尤瓦尔·诺亚·哈拉里(Yuval Noah Harari)所说的去个性化。因为作为人类,我们的想法、信仰、所爱或所爱的人都可以被简化为人工智能数据点,所以从某种意义上说,我们被它分裂或支离破碎。因此,在 Sewells 收集的文字上训练人工智能系统会破坏他曾经的样子。
批评者嘲笑人工智能撰写的评论,认为它是苍白的副本,无法捕捉 Sewells 的尖刻和傲慢。写作。但这种观点掩盖了人们对这项技术带来的哲学威胁的更大认识,即人类沦为机器。
哲学家汉娜·阿伦特提出了令人不寒而栗的观点她在 1958 年出版的《人类状况》一书中反对这种还原论。她警告说,在这个世界上,强大的计算机似乎会接近独立思考和意识。然而,她认为这是否可以算作思想取决于我们是否愿意将自己的思维简化为纯粹的计算和计算。
阿伦特认为我们可以而且应该抵制这种简化,就像人类一样与世界互动的多种方式。在《人类状况》中,她区分了她所说的劳动、工作和行动。对于阿伦特来说,如果劳动是自然的,而工作是人工的,那么行动就更接近于不受约束的人类创造力。
行动是人们用语言讲述自己生活的故事时所做的事情。这是一种交流形式:通过语言,我们能够阐明我们行为的意义,并与不同于我们的其他人协调我们的行为。
但阿伦特担心这种创造性的行为人类通过语言和讲故事进行的交流可能会被简化为机械构造,变成人工的东西。她还坚持认为,如果故事的讲述需要个人在世界上采取立场并采取行动,那么它的持久性取决于是否有其他人听到并重述它,也许以不同的形式。这在一定程度上取决于信任。但是,如果人类行为被简化为机器可以产生的东西,这种信任纽带就会受到威胁。
另一位更接近我们时代的哲学家,他担心广泛的、不加反思的发展所带来的信任侵蚀人工智能的采用者是丹尼尔·丹尼特(Daniel Dennett),他于今年早些时候去世。在他最危言耸听的时刻,丹尼特认为,最紧迫的问题不是人工智能会抢走工作或改变战争,而是它们将摧毁人类的信任。
即使大型语言模型(人工智能系统丹尼特认为,(能够通过处理大量文本数据来理解和生成人类语言)永远不会像人类那样思考,即使他们无法讲述自己的故事,但他们仍然很有可能将我们带入一个无法辨别真假的世界,我们不知道该相信谁。这是一个可怕的思想实验,标准可能(无意中)引起了我们的注意。
寻找一些好东西?精心挑选的最新版本、现场活动和展览,每两周(周五)直接发送到您的收件箱,消除喧嚣。在此注册。