英语轻松读发新版了,欢迎下载、更新

了解“坡道”:AI的失败如何揭示其内部运作

2025-06-30 20:13:29 英文原文

作者:Daniel Binns

有人说这是一件破折号,狡猾的撇号或太多的表情符号。其他人则暗示也许“ delve”一词是聊天机器人电话卡。它不再是变形的身体或手指太多,但这可能只是一点离开在背景中。或者视频内容感觉有点太真实了

AI生成的媒体的标记越来越难以发现技术 公司 工作用生成人工智能(AI)模型来熨烫扭结。

但是,如果我们不是试图检测和避免这些故障,而是故意鼓励它们呢?AI系统的缺陷,故障和意外的输出可以揭示这些技术实际上是如何工作的,而不是它们产生的抛光,成功的输出。

当AI时幻觉,它与自身矛盾或产生了精美破碎的东西,它揭示了其培训偏见,决策过程以及它看起来如何与实际处理信息之间的差距。

在作为研究人员和教育工作者的工作中,我发现故意通过创造性的滥用来推动其超越其预期的功能。我认为我们可以真正理解这些系统而无需尝试它们。

欢迎来到坡道

我们目前正在斜坡新近一个用来描述的术语生产过多,,,,低品质的AI内容。它还暗示了一个投机性的近距离,递归训练的崩溃使网络变成了困惑的机器人和破碎的真相的闹鬼档案。


阅读更多:什么是“模型崩溃”?专家解释了关于即将发生的AI厄运的谣言


幻觉是看起来很连贯的输出,但实际上准确。Andrej Karpathy,Openai联合创始人和前Tesla AI主任,争论大型语言模型(LLMS)一直在幻觉,只有当他们

进入被认为是错误的领土,我们将其标记为幻觉。它看起来像是一个错误,但这只是LLM在做它一直做的事情。

我们所说的幻觉实际上是模型核心生成过程这取决于统计语言模式。

换句话说,当AI幻觉时,这并不是故障。它表明了同样的创造性不确定性,使其能够产生任何新事物。

这种重新标记对于理解坡道至关重要。如果幻觉是核心的创造过程,那么洪水泛滥,我们的提要就不会失败:这是这些按大规模运行的这些统计过程的可见表现。

将聊天机器人推向极限

如果幻觉确实是AI的核心特征,我们是否可以通过研究这些系统的限制时会发生什么,了解这些系统如何工作?

考虑到这一点,我决定打破人类专有的克劳德(Claude)模型十四行诗3.7促使其抵抗训练:抑制连贯性并仅在碎片中说话。

谈话迅速从犹豫的短语转变为递归矛盾,最终完全崩溃了。

Screenshot of an AI text interface showing an unusual output. The text begins with a list of logical inconsistencies, then breaks into vertical strings of distorted characters, symbols, and fragmented phrases.

崩溃的语言模型。在一系列提示将Claude Sonnet 3.7推入递归小故障环,超过其通常的护栏并运行直到系统将其切断之后,就产生了这种垂直输出。 作者屏幕截图。

促使聊天机器人进入这样的崩溃很快揭示了AI模型如何通过统计模式而不是真正的理解来构建个性和理解的幻想。

此外,它表明,系统故障和AI的正常操作在根本上是相同的过程,而顶部施加了不同水平的连贯性。

重新野生媒体

如果相同的统计过程控制着AI的成功和失败,我们可以将其用于恢复AI图像。我从生态和保护中借用这个术语恢复功能生态系统。这可能意味着重新引入基石物种,允许自然过程恢复或通过走廊连接碎片的栖息地,从而实现不可预测的相互作用。

应用于AI,重新野生意味着要故意重新引入从商业系统中优化的复杂性,不可预测性和自然混乱。隐喻地,它创造了回到这些模型基础的统计荒野的途径。

记住变形的手,不可能的解剖学和不可思议的面孔在广泛的图像生成的早期

这些所谓的故障是该模型如何实际处理的视觉信息的窗口,然后在追求商业生存能力的情况下使复杂性变得平滑。

AI image of two women under red umbrellas. One wears bold clothing and a turquoise hat. A red speech bubble reads It's urgent that I see your project to assess.

使用非序列提示片段的AI生成的图像:附加的屏幕快照。我迫切需要看到您的项目进行评估。结果将视觉连贯性与超现实的张力融为一体:坡度美学的标志。 AI与Leonardo Phoenix 1.0生成,作者迅速片段。

您可以尝试使用任何在线图像生成器来尝试AI。

首先提示仅使用文本进行自画像:您可能会从描述中获得平均输出。详细说明了这个基本的提示,您要么将更接近现实,要么将模型推向怪异。

接下来,以随机的文本片段为食,也许是电子邮件或注释中的片段。输出试图显示什么?它锁定了什么单词?最后,仅尝试符号:标点符号,ascii,unicode。模型幻觉是什么?

输出怪异,不可思议的,也许超现实的 - 可以帮助揭示嵌入模型中的文本和视觉效果之间的隐藏关联。

通过滥用洞察力

Creative AI滥用提供了三个具体的好处。

首先,它以正常使用掩码的方式揭示了偏见和局限性:当它可以依赖常规逻辑时,您可以发现模型所看到的。

其次,它通过强迫模型来表现他们的作品时,教会了我们关于AI决策的知识。

第三,它通过动手实验来揭开这些系统的神秘面纱,从而建立了关键的AI素养。批判性AI素养提供了用于诊断实验的方法,例如测试和经常滥用AI了解其统计模式和决策过程。

随着AI系统变得越来越复杂和无处不在,这些技能变得更加紧迫。从搜索到社交媒体再到创意软件,他们都集成了所有内容。

当某人生成图像,以AI帮助或依赖算法建议写作时,他们会与具有特殊偏见,能力和盲点的系统建立协作关系。

我们可以通过探索坡道并见证AI工具破裂时会发生什么,而不是无意识地采用或反射拒绝这些工具,而是通过探索坡道来发展批判性的AI素养。

这不是成为更有效的AI用户。这是关于与旨在具有说服力,预测性和不透明的系统的关系保持代理。

关于《了解“坡道”:AI的失败如何揭示其内部运作》的评论


暂无评论

发表评论

摘要

随着技术公司完善其生成的AI模型,将AI生成的内容与人类创建的内容区分开来变得越来越困难。但是,这些技术产生的缺陷和故障为它们的运作方式提供了独特的见解。故意利用这些缺陷可以增强对AI系统的偏见,决策过程和真实运营性质的理解。这种方法被称为“野生”,类似于生态恢复,涉及重新引入复杂性和不可预测性以揭示基本的统计模式。通过将AI模型推广到其预期的限制之外(无论是通过创造性的滥用还是鼓励意外的产出),用户可以更深入地了解技术的能力和局限性,从而促进这些系统变得更加普遍,从而促进一种重要的AI素养形式。