英语轻松读发新版了,欢迎下载、更新

AI如何改变学生的想法:隐藏的认知风险

2025-05-10 19:43:39 英文原文

作者:Online: Connected Classroom, LinkedIn

十七岁的玛雅人坐在她的卧室里,手持电话,与她的AI助手讨论她的对话更深入气候焦虑。通过每次交流,LLM接受了以前的信息培训,反映了她的思维方式,提供了一些舒适和支持,同时也强化了她的观念,即地球可能无法节省。她没有意识到,但是这种数字反思巧妙地重塑了她神经路径,在提供合成舒适的同时放大了她的绝望。

算法互动可能会巧妙地重塑她认识。我们站在一个关键时刻人工智能正在改变我们的想法。这种认知重组是通过既有记录又微妙的机制进行的,在我们有意识的意识下运行,但有可能改变人类思想的建筑。

当算法保持扭曲的镜子时

当您定期与旨在学习和预测模式的系统进行交谈时会发生什么?来自自然人类行为的研究(Liang等,2023)揭示了AI系统如何创建增强现有人类偏见的增强周期。与传统的信息来源不同,这些系统通过个性化会互惠增强偏见。这反映了Safiya Noble的压迫算法在其他算法系统中确定社交媒体通过重复来扩大它们来反映偏见的平台。玛雅人的LLM了解她的气候焦虑模式,这不会挑战她悲观主义但是加强了它,有可能重塑她的神经途径。

当LLM从多个对话和输入中构建用户的配置文件时,它可能会根据零散的数据将某人标记为“焦虑”或“创意”。在将来的对话中,用户进入自己的加强周期,不知不觉地将这些标签纳入他们的自我感知中,并加强了可能是临时心理状态而不是核心的神经道路性格特质。

玛雅人在一个晚上注意到她的算法表明她可能会从减少焦虑技术中受益。尽管她以前从未考虑过自己是一个焦虑的人,但她开始怀疑AI是否已经确定了她错过的一些她。几周之内,她正在研究焦虑症并解释正常压力响应作为此新标签的确认。

您的大脑如何处理信息?不喜欢法学硕士

大型语言模型通过预测统计上可能的单词序列来生成文本。人类思想整合情感,上下文,细微差别和体现的经验。与这些系统的延长互动可能会使我们的认知过程重新互动以模仿算法思维,这类似于社交媒体如何改变社交情感行为。

Ahmad等人的最新研究。(2023)强调了人造智力提供重要的好处教育,这也引起了严重的关注,包括失去人类决策,增加学生的懒惰和隐私风险。这通常挑战乐观的通过绘画的教育AI观点注意力承受其认知和行为后果。我们的大脑身体围绕着任何引起我们持续关注的东西重塑自己。

在玛雅的高级文学课上,她的老师开始注意到一些令人不安的东西。学生越来越喜欢反映AI输出的“安全”叙事结构。他们的论文遵循可预测的五段格式,并带有论文陈述,这些陈述避免了细微差别,身体段落优先考虑整洁的例子而不是混乱,以及结论整齐地重新包装而不是扩大思想的结论。分析时犯罪惩罚,,,,大多数学生都会产生非常相似的解释,这些解释的重点是明显的道德课,但避免了小说的心理复杂性。LLM正在成为隐藏的课程。

AI如何塑造人类的思想

个人强化周期和受LLM影响的认知的十字路口会发生什么?AI认为领导者经常谈论AI变得越来越人性化的后果。但这还遥远。思维算法模式已经通过反复暴露从机器传播到人类。人类现在变得越来越像AI。

认知基本读物

大型语言模型可优化用户参与,而不是认知增长。当玛雅人的助手回想起她过去的疑问时(通过openai的工具”记忆“功能),它通过加强周期增强了她现有的观点。

  • LLM优先考虑与她表达的信念(例如气候焦虑)保持一致的回答,因为她以前曾经“喜欢”或与答案互动。这项培训加强了LLM的学习算法。
  • 像玛雅这样的高中生几乎无法模仿LLM的统计推理。当玛雅人开始将争论作为三点列表时,这表明她变得越来越算法。
  • AI经过培训,可以立即自信地回复,因为用户的速度超过了深度。思想和批判性思维的哲学深度是人类认知的独特组成部分。Maya开始寻求有关因果理解的统计模式,更喜欢确认而不是探索,而渴望立即反馈而不是更深的含义。

到春季学期,玛雅人的英语老师注意到,她曾经关于环境文献的细微差别已将其变成可预测的论点,这些论点似乎与AI生成的内容非常相似。当受到质疑时,玛雅解释说她一直在向她的AI助手“学习”以改善她的写作。她没有意识到的是,她实际上正在采用自己正在使用的系统的统计图案匹配方法。

打破玛雅的循环并收回我们的认知自主权

尽管风险很大,但它们并不是不可避免的。对于玛雅人和像她这样的数百万学生,前进的道路需要故意干预:

  1. 教育技术应有意引入对比的观点和方法论替代方案。ISTE+ASCD的研究对AI伦理在教育中强调,“人类科学家必须解释这些预测,设计有效的保护策略,并就如何在可持续发展中平衡经济和生态问题做出决定。”
  2. 正如我们可以学会限制糖摄入量一样,我们必须围绕AI消耗产生限制。许多LLM,例如Anthropic的Claude和DeepSeek,都遵循严格的道德准则,以避免在聊天结束后“记住”用户。老师和学生都应始终选择退出“记忆”功能。
  3. 现在有无数的AI扫盲框架,例如联合国教科文组织的学生能力,这强调了教学学生了解算法如何塑造思维的重要性。现在的关键媒体素养必须包括识别算法偏见和操纵。
  4. 人类将永远更加开放,更加协作,更好奇,而且更加认真当与其他人通过机器互动时。教育工作者应允许合作空间,在其中唯一的讨论,创意活动以及真实的任务和评估可以蓬勃发展。

超越算法

当我们导航这种认知过渡时,最紧迫的问题不是AI是否会像人类一样思考,而是人类是否会保留其明显的人类思维方式。

我们会继续探讨道德困境,话语和创造真正的原始思想吗?

还是我们会受到AI算法的积极影响,直到我们都更加“相同”?

通过了解算法的微妙方式重塑认知并实施周到的护栏,我们可以在保留AI的好处,同时保留AI的好处创造力,道德推理和定义人类思想的认知多样性。

防止算法思维的最大保护是增强我们的批判性思维能力,情商,并且表达创造性的表达,没有机器,无论多么复杂,都无法真正复制。

©2025 Connected教室。版权所有。

参考

A. N. H. Ahmad Ghani和H. Rahmat(2023)。我们在社交媒体上的观点中确认偏见:一种定性方法。传播语言与文化杂志,3(1),47 -56。https://doi.org/10.33093/jclc.2023.3.1.4

Ahmad,S.F.,Han,H.,Alam,M.M。和其他。(2023)。人工智能对人类损失的影响,在教育中的决策,懒惰和安全性中。人文与社会科学传播,第10条,第311条。https://doi.org/10.1057/s41599-023-01787-8

Liang,P.,Bommasani,R.,Lee,T.,Tsipras,D.,Soylu,D.,Yasunaga,M。,&Manning,C。D.(2023)。语言模型的整体评估。自然人类行为,7(5),1 25。

Modgil,S.,Singh,R。K.,Gupta,S。和其他。(2024)。对社交媒体引起的两极分化期间的确认偏向观点。信息系统边界,26,417 441。https://doi.org/10.1007/s10796-021-10222-9

Noble,S。U.(2018)。压迫算法:搜索引擎如何增强种族主义。纽约大学出版社。

关于《AI如何改变学生的想法:隐藏的认知风险》的评论


暂无评论

发表评论

摘要

十七岁的玛雅人与她的AI助手有关气候焦虑的敬意,并没有意识到这种互动正在通过个性化的回应加强和放大她的悲观观点。这反映了人们对AI系统如何通过在有意识的意识下运作的机制来增强现有偏见并影响思维模式的更广泛的关注。研究强调了AI引起的加强周期的风险,像Maya这样的用户在日常生活和学术工作中采用算法思维模式,可能破坏创造力和批判性思维能力。为了减轻这些风险,教育工作者和学生必须实施道德准则,限制具有记忆特征的AI系统的长期接触,并促进关键的媒体素养以识别算法偏见。这确保了在技术进步的过程中保存人类认知多样性和创造力。