作者:Online: Connected Classroom, LinkedIn
十七岁的玛雅人坐在她的卧室里,手持电话,与她的AI助手讨论她的对话更深入气候焦虑。通过每次交流,LLM接受了以前的信息培训,反映了她的思维方式,提供了一些舒适和支持,同时也强化了她的观念,即地球可能无法节省。她没有意识到,但是这种数字反思巧妙地重塑了她神经路径,在提供合成舒适的同时放大了她的绝望。
算法互动可能会巧妙地重塑她认识。我们站在一个关键时刻人工智能正在改变我们的想法。这种认知重组是通过既有记录又微妙的机制进行的,在我们有意识的意识下运行,但有可能改变人类思想的建筑。
当您定期与旨在学习和预测模式的系统进行交谈时会发生什么?来自自然人类行为的研究(Liang等,2023)揭示了AI系统如何创建增强现有人类偏见的增强周期。与传统的信息来源不同,这些系统通过个性化会互惠增强偏见。这反映了Safiya Noble的压迫算法在其他算法系统中确定社交媒体通过重复来扩大它们来反映偏见的平台。玛雅人的LLM了解她的气候焦虑模式,这不会挑战她悲观主义但是加强了它,有可能重塑她的神经途径。
当LLM从多个对话和输入中构建用户的配置文件时,它可能会根据零散的数据将某人标记为“焦虑”或“创意”。在将来的对话中,用户进入自己的加强周期,不知不觉地将这些标签纳入他们的自我感知中,并加强了可能是临时心理状态而不是核心的神经道路性格特质。
玛雅人在一个晚上注意到她的算法表明她可能会从减少焦虑技术中受益。尽管她以前从未考虑过自己是一个焦虑的人,但她开始怀疑AI是否已经确定了她错过的一些她。几周之内,她正在研究焦虑症并解释正常压力响应作为此新标签的确认。
大型语言模型通过预测统计上可能的单词序列来生成文本。人类思想整合情感,上下文,细微差别和体现的经验。与这些系统的延长互动可能会使我们的认知过程重新互动以模仿算法思维,这类似于社交媒体如何改变社交情感行为。
Ahmad等人的最新研究。(2023)强调了人造智力提供重要的好处教育,这也引起了严重的关注,包括失去人类决策,增加学生的懒惰和隐私风险。这通常挑战乐观的通过绘画的教育AI观点注意力承受其认知和行为后果。我们的大脑身体围绕着任何引起我们持续关注的东西重塑自己。
在玛雅的高级文学课上,她的老师开始注意到一些令人不安的东西。学生越来越喜欢反映AI输出的“安全”叙事结构。他们的论文遵循可预测的五段格式,并带有论文陈述,这些陈述避免了细微差别,身体段落优先考虑整洁的例子而不是混乱,以及结论整齐地重新包装而不是扩大思想的结论。分析时犯罪和惩罚,,,,大多数学生都会产生非常相似的解释,这些解释的重点是明显的道德课,但避免了小说的心理复杂性。LLM正在成为隐藏的课程。
个人强化周期和受LLM影响的认知的十字路口会发生什么?AI认为领导者经常谈论AI变得越来越人性化的后果。但这还遥远。思维算法模式已经通过反复暴露从机器传播到人类。人类现在变得越来越像AI。
认知基本读物
大型语言模型可优化用户参与,而不是认知增长。当玛雅人的助手回想起她过去的疑问时(通过openai的工具”记忆“功能),它通过加强周期增强了她现有的观点。
到春季学期,玛雅人的英语老师注意到,她曾经关于环境文献的细微差别已将其变成可预测的论点,这些论点似乎与AI生成的内容非常相似。当受到质疑时,玛雅解释说她一直在向她的AI助手“学习”以改善她的写作。她没有意识到的是,她实际上正在采用自己正在使用的系统的统计图案匹配方法。
尽管风险很大,但它们并不是不可避免的。对于玛雅人和像她这样的数百万学生,前进的道路需要故意干预:
当我们导航这种认知过渡时,最紧迫的问题不是AI是否会像人类一样思考,而是人类是否会保留其明显的人类思维方式。
我们会继续探讨道德困境,话语和创造真正的原始思想吗?
还是我们会受到AI算法的积极影响,直到我们都更加“相同”?
通过了解算法的微妙方式重塑认知并实施周到的护栏,我们可以在保留AI的好处,同时保留AI的好处创造力,道德推理和定义人类思想的认知多样性。
防止算法思维的最大保护是增强我们的批判性思维能力,情商,并且表达创造性的表达,没有机器,无论多么复杂,都无法真正复制。
©2025 Connected教室。版权所有。
参考
A. N. H. Ahmad Ghani和H. Rahmat(2023)。我们在社交媒体上的观点中确认偏见:一种定性方法。传播语言与文化杂志,3(1),47 -56。https://doi.org/10.33093/jclc.2023.3.1.4
Ahmad,S.F.,Han,H.,Alam,M.M。和其他。(2023)。人工智能对人类损失的影响,在教育中的决策,懒惰和安全性中。人文与社会科学传播,第10条,第311条。https://doi.org/10.1057/s41599-023-01787-8
Liang,P.,Bommasani,R.,Lee,T.,Tsipras,D.,Soylu,D.,Yasunaga,M。,&Manning,C。D.(2023)。语言模型的整体评估。自然人类行为,7(5),1 25。
Modgil,S.,Singh,R。K.,Gupta,S。和其他。(2024)。对社交媒体引起的两极分化期间的确认偏向观点。信息系统边界,26,417 441。https://doi.org/10.1007/s10796-021-10222-9
Noble,S。U.(2018)。压迫算法:搜索引擎如何增强种族主义。纽约大学出版社。