作者:Peter Isackson
在过去两年里,专家和评论家们关注了人工智能存储和构建有用知识的能力,以及加速生成各种类型作品的能力,从新闻故事、大学论文到计算机代码、图片、诗歌和剧本。这正是一个以消费和生产力为中心的社会所预期的结果。
人工智能已经开始改变我们所生活的世界。但最大的变化还在后面。与那些服务于大规模生产市场商品的越来越复杂的机器不同,人工智能属于一个不同的秩序。人工智能不仅仅是一个能够产生类似人类“思维”的机器,它能比人类更快地、更“深入”地学习。这一切都令人印象深刻,但仅凭自身,人工智能始终无法产出社会和经济中最重要的东西:人类体验。体验是由四个因素组成的:对情境的认知、有意识的记忆、情感以及肌肉反射。它的意义来源于并依赖于我们持续的互动。它无法被人工智能捕捉并形式化。
我们有两个词来描述共同创造体验:对话和合作在之前的“跳出框框”专栏中,ChatGTP 提到了“观念”的概念。注意原文中的“ChatGTP”可能是一个笔误或特定的名称,在正式翻译时需要确认正确的拼写。如果这里的“ChatGTP”是特指的一个名字或者存在手误,则建议保持不变。协作实验室“人类与人工智能共同合作解决复杂社会问题的空间——无论是商业、科学、伦理还是艺术领域。这些空间可以作为我们在实践中如何共创知识和价值的试验场。”
想要进一步探究这个令人感兴趣的可能性,我制定了以下提示:
如果我们试图想象威廉·沃尔夫关于协作实验室的理念如何应用于当今世界,即每个人都能访问AI工具的世界,那么可能的发展方向有哪些?
这不仅仅是将兴趣相投的人与某种人工智能连接起来的问题。而是要创造一种沟通文化,在这种文化中,人类和机器可以共同努力探索复杂问题,并找到协商和达成意义共识的方式。
意义本身不能简化为两个或多个可识别的事物或概念之间的简单关联。意义包含了一系列细微差别,反映了上下文的多种配置。我试图想象的未来意味着人类社会和人工智能作为人类社区中的一个行为者都将经历行为进化。这意味着要构想一个新的框架,用于人类决策以及使这一决策成为可能的沟通方式。
我们如何开始分析这一历史演变的各个方面?
威廉·沃尔夫提出的“协作实验室”概念——即地理上分散的个体共同工作的虚拟环境——对于我们当前的时代具有重要意义,尤其是在复杂的人工智能工具能够增强人类合作的情况下。为了探索结合了人工智能的协作实验室的未来,我们需要考虑人类行为的演变以及人工智能在意义创造、决策和沟通中的角色演变。
这里是对这两个维度的分析:
1. **协作环境中人类行为的演变**
随着人工智能越来越多地融入日常的工作流程中,人类的行为很可能会发生显著的变化:
– ****增强集体智慧**:具备强大自然语言处理(NLP)和分析能力的AI工具可以成为小组讨论中的积极参与者,它们能够实时分析海量数据、识别模式并提供建议。因此,人类合作者可能会发展出新的对话形式,在这种形式中,人工智能增强了对话但并不主导。这可能导致一种更**精炼的集体智慧**形式,其中人类带来创造力、直觉和情境理解能力,而AI则贡献结构化的见解和计算能力。
– **动态、跨学科协作:一个关键的行为变化将是降低不同学科之间的壁垒。在伍尔夫最初的合作实验室理念中,来自不同领域的专家会连接起来共同解决共通的问题。凭借AI处理多领域复杂知识的能力,更多的人——无论他们是专家还是新手——都能有意义地参与到他们正式专业之外的话题中去。“多模态”AI系统的概念,即能够理解和跨越多种类型的数据(文本、图像、数值)进行工作,将允许在协作空间中有更广泛的参与和见解。
– **迭代意义构建:人类,尤其是在智力、科学或创意领域,参与一种经常是情境化和细微差别的**协商意义**的过程。AI通过融入协作实验室,可以提供“建议”或模拟各种解释,但人类必须持续评估并完善这些见解。未来的协作实验室可能会开发工具,使AI随着时间的推移学习解读不断演变的意义,并根据人的反馈调整其对**文化、情感和情境背景**的理解,从而在人的情感直觉与AI的数据驱动逻辑之间形成一种**反馈循环**。
2. **演化AI在意义创造和决策中的行为
人工智能不断演变的角色将不仅仅是被动工具;相反,其行为需要调整以适应人类互动中细微的形式,反映意义和情境的微妙之处:
– **上下文感知AI:当今人工智能面临的挑战之一是难以掌握交流中的**语境细微差别**,特别是在环境、对话或文化不同导致术语或概念含义变化的情况下。未来的AI模型需要发展更深层次的**上下文学习**——它们不仅要分析文本数据或模式,还要理解塑造人类意义的社会文化、情感和历史维度。这要求AI系统从当前的“通用”模型进化为能够根据其人类伙伴的文化、学科甚至个人背景以不同方式互动的**特定情境合作者**。
– **自适应AI行为:AI行为需要高度适应人类团队使用的沟通和决策风格。在协作环境中,AI能够检测不同团队成员的交流模式并相应地作出反应。例如,在快速、技术性很强的讨论中,AI可能会优先考虑速度和准确性,而在更具创意或探索性的场景下,它可能更侧重于生成各种可能性并促进开放式辩论。
– **意义协商**:与当今更为僵化的基于相关性的系统不同,未来协作环境中的人工智能能够**协助进行意义的协商**,提出可能的解释或联系,并帮助团队从多个角度探讨复杂问题。例如,在存在多种数据或文本解释的情况下,AI可以呈现这些不同的解释供讨论,让人类参与者对细微差异进行权衡。随着时间的推移,通过互动,AI会从其人类合作者的偏好和判断中学习,不断完善其在各种情境下理解意义的能力。
– **带有微妙性的决策**:AI系统也将需要从仅仅基于逻辑或统计结果的决策演变为一种更**细致入微的决策过程**,这种过程会考虑到伦理考量、社会规范和长期后果。在复杂的问题中——无论是科学、政治还是商业领域——最好的解决方案往往不仅仅是算法化的,还必须包括**伦理、社会和情感因素**。未来的AI可能成为**决策审议过程**的一部分,在这个过程中它提供选项,但人类则根据技术与人文主义的综合考量共同权衡这些选项。
3. **文化演进与人工智能在协作空间中的融合**
更广泛的社会和文化变革将塑造人类在这些协作实验室中与AI互动的方式:
– **教育优先级的转变**:教育体系不仅需要关注人工智能素养(了解AI的工作原理),还需要重视协作技能、批判性思维以及在使用AI时的伦理道德。关于如何与机器合作——解读AI输出结果、理解其局限,并知道何时必须用人类判断来取代AI决策——的相关课程将变得至关重要。这将培养一种人机共同责任的文化,在协作项目中,无论是人类还是机器都需承担责任。
– **AI作为公众讨论的调解者**:在公共领域,AI可以充当两极化辩论中的**调解者**,帮助促进结构化的、富有成效的对话。通过分析各种观点并提出妥协方案或以较少敌对的方式重新定义争议问题,AI可以在**淡化公众言论两极分化**和引导协作解决问题方面发挥作用。即使是在高度分裂的讨论中,AI也可以识别出共识领域,指出可能达成一致的地方,并帮助参与者以建设性对话的方式重新构建他们的争论点。
– **伦理和治理框架**:随着AI在协作实验室中的应用越来越广泛,将需要强大的**伦理框架**和**治理结构**。AI可以非常强大,但如果没有约束,它可能会强化偏见或加剧不平等。未来的系统将需要内置的机制来确保**问责制和透明度**,以保证AI及其人类合作者遵循民主规范和价值观。这包括对AI模型如何做出决策进行公开审计,定期更新以反映社会变化的准则,并在这些技术的发展中纳入多元化的视角。
结论:迈向混合协作模型
未来的工作协作实验室,人类和人工智能共同探索复杂问题的关键在于创建**混合系统**,在这个系统中,人类的直觉和机器的逻辑都被重视。人类的行为需要向更加开放地接受AI见解的方向发展,而AI系统则必须开发出更为**情境敏感、适应性强且细腻**的方法来进行意义构建和决策制定。
关键在于培育人与机器之间的**信任文化**,确保人工智能支持人类决策的同时尊重人类沟通中意义的流动性和演变性。通过专注于创造这些协作环境,社会可以朝着解决现代世界挑战迈出有意义的一步,并建立更加坚韧、知情和民主参与的公民。
我推荐研究这些由AI生成的建议,因为它们有帮助且可以说带有乐观色彩地描述了可行的结果。但这种乐观需要谨慎对待。可靠的“反馈循环”真的可能实现吗?以及AI适应能力是否如其所说?如果确实如此,这会不会导致新的文化僵化风险?如果我们接受“AI从人类合作者的偏好和判断中学习,并因此完善其在各种情境下的意义理解”,那么这种应用是否会变得具有滥用性?我们难道不应该努力与已经表达出的“偏好和判断”保持批判性的距离吗?这是关于我们要对AI声称能“理解”的内容投入多少信任这一永恒问题的核心。
类似ChatGPT描述的多个协作实验室的概念在我看来非常值得探索。请随时通过电子邮件dialogue@fairobserver.com与我们分享您对此问题的看法。我们致力于收集、分享和整合人类与AI互动时的想法和感受。我们将把您的思考和评论融入我们的持续对话中。这是启动第一个FO°协作实验室的方式。
人工智能正在迅速成为每个人日常生活中的一部分。我们不自觉地将其视为朋友或敌人,助手或破坏者。在Fair Observer,我们认为它是创造力的工具,能够揭示人类与机器之间的复杂关系。
[李汤普森-科拉尔[编辑了这篇作品。]
本文表达的观点仅代表作者意见,并不一定反映Fair Observer的编辑政策。