作者:Mahmut Özer
技术直接影响所有领域。AI带来的巨大浪潮正在将文化推向每个领域的基本转型,远远超出了以前的技术破坏,同时也增加了风险。因此,提高AI识字率不仅会提高人们对其收益的认识,而且还会提高其风险。
教育系统是面临AI技术挑战的主要领域之一。对教育系统的这一挑战是双重的。第一个维度涉及由于AI技术而导致教育系统本身发生的转型,而第二维度则与如何对现有或新职业的人力资本进行培训,以应对AI技术的快速变化为劳动力市场带来技能。这两种挑战都对教育系统施加了重大压力。本文仅关注AI技术对教育系统中第一维的影响。
尤其是使用诸如Chatgpt和DeepSeek之类的生成AI技术,大型语言模型(LLMS)现在可以生成内容,以不同格式组织文本并在语言之间进行翻译。结果,教师可以为使用AI辅助补充材料丰富教育环境的选项大大扩展和多样化。教师可以迅速生成与课程相关的各种类型的内容,并在课堂设置中使用它们。在这个新的景观中,教师的工作量正在发生根本性的转变。尽管常规任务正在减少,但他们必须更多地专注于每个学生的个人发展。此外,有可能将教育环境从传统环境转变为更具创新性和互动性学习空间。
多亏了这项技术,教师可以自动评估作业并为学生提供更快的反馈。尽管仍然存在许多缺点,但AI系统为评估学生的作业和考试提供了各种选择。特别是,可以产生开放式问题,并可以获得快速的反馈。此外,可以开发自动化或半自动化的评估系统,以提供旨在改善学生学习成果的反馈。
另一方面,教育领域以外的AI应用程序的发现表明,此类技术提高了企业绩效较低的员工的生产率,从而缩小了低绩效工人和高性能工人之间的绩效差距并缩小生产率量表。预计还适用于教育系统类似的效果。换句话说,AI驱动的工具有可能减少教育中最重要的挑战之一:学生的学业成绩差异。在这种情况下,个性化学习是一个关键解决方案。在AI支持的情况下,学生可以在老师的指导下访问量身定制的补充内容,使教育工作者能够密切监视每个学生的个人进步。
生成的AI系统也正在影响外语教育。学生不仅可以访问更广泛的学习新语言的支持平台,而且教师还有更多的机会来丰富他们的教学材料。特别是,通过AI驱动的工具纠正外语文本正在广泛使用,Chatgpt进一步扩展了这些选项。同样,AI系统正在为诗歌,音乐和视觉艺术等艺术领域开放新的边界,从而增强了在这些领域中充实教育的潜力。
与其他领域一样,AI系统不仅带来了好处,还带来了教育风险。不关心数据隐私,最重要的风险是,这些系统产生的内容并不总是准确的,并且通常包含偏见。AI产生不正确或捏造的内容的现象通常称为AI幻觉。当AI幻觉时,它会产生可能在文本中看起来令人信服且内部一致的响应,但完全捏造并与用户输入或先前上下文断开了连接。结果,尽管AI生成的响应似乎是合理的,但有时可能会产生误导或不正确。因此,学生必须谨慎处理自动生成的内容。否则,有可能强化错误的看法,即这种系统产生的所有信息本质上都是准确的。
另一方面,这些系统在学习阶段使用的培训数据集中存在的偏差直接反映在其输出中。换句话说,人工智能系统再现了与宗教,性别,种族,文化以及嵌入在培训数据中的其他因素有关的偏见。结果,并非AI系统生成的所有信息都可以假定为最新,准确,无偏见或可靠。因此,对于学生和老师来说,高度意识到这些局限性和潜在风险至关重要。
同样,教育管理人员也有更多机会利用AI在密切监视教育过程中,实现早期干预和有效指导。但是,在这种情况下,最重要的风险是产生有偏见的可能性,这可能会进一步加深现有的不平等现象。因此,在进行预测时,教育管理人员必须保持意识到这些风险,并始终在谨慎和批判性评估中取得AI产生的结果。
在教育中使用AI系统的主要挑战之一是频繁偏离道德原则。一个特别令人担忧的问题是,学生可能完全依靠这些系统来完成作业和项目,从而导致各种形式的学术扭曲。首先,这种道德违规会产生误导性的评估,使表现不佳的学生显得成功,从而导致测量和评估不准确。换句话说,不道德使用这些系统的学生可能会不公平地被奖励。其次,尽管学生缺乏必要的能力,但他们的实际斗争仍然隐藏了。结果,他们可能会在不接受早期干预或补救机会的情况下通过教育阶段前进。
此外,这种趋势有助于学生之间不道德行为的正常化,并破坏了对努力和努力的尊重。从长远来看,这可能会对熟练和合格的劳动力的发展产生严重的影响。因此,需要采用新的方法来准确测量和评估学生的表现,同时考虑AI系统的作用,以确保认识并公平地评估真正的努力。
在这种情况下,最近的一项研究研究了AI对个人安全和隐私问题的影响,决策能力的丧失以及来自中国和巴基斯坦一群高等教育学生的懒惰倾向。该研究的发现表明,在使用的学生样本中,AI应用程序对学生的决策能力丧失和增加的懒惰产生了重大影响。根据调查结果,有68.9%的学生懒惰,68.6%的个人隐私和安全问题,而决策能力中有27.7%的损失可以归因于AI应用程序的影响。安全和隐私问题不仅限于教育;它们在应用AI的所有领域都广泛。此外,媒体对安全漏洞和侵犯隐私的频繁报道继续提高了公众关注的水平。个人可以为这些问题所采用的最重要的解决方案是不断提高他们对这些技术的识字率。在这一领域缺乏知识可显着增加数据泄漏的可能性。
该研究的发现表明,随着AI应用的功能的增加和在教育中的使用变得更加普遍,学生对这些工具的信任也会增长,从而增强了学生懒惰。随着学生将更多的学术任务委托给这些应用程序,他们的反射验证了生成的内容会削弱,并且在内容创建过程中越来越不利于其分析思维技能和认知能力。对AI生成的内容的过度信任也会导致对这些工具的依赖性日益增长。最终,这种依赖性使学生懒惰。实际上,类似的风险也适用于教师。
另一方面,研究结果表明,以这种方式对AI应用的使用越来越多地削弱了学生的决策能力。这是因为,学生们并没有自己做出决定,而是越来越多地采用AI应用程序产生的决定作为自己的替代品。结果,他们应对决策过程中固有的紧张局势和复杂性的能力也在恶化。从长远来看,面对挑战,这种脆弱性可能会间接破坏学生的韧性。
除了上述简要提到的这些效果之外,与AI生成的内容相关的两个主要风险。第一个涉及AI应用的潜力根据宗教,文化,性别,社会经济地位,种族和其他因素产生有偏见的产出。当学生对此类内容过分信任时,他们就不太可能验证它,从而使观点的传播通过教育系统加强了现有的不平等现象。第二个涉及在AI系统中幻觉或混合行为的风险。当这些行为发生时,AI应用程序会生成可信的错误内容。如果无法正确检查和过滤此类内容,则与现实相对应的信息可以通过教育渠道更容易传播。
总而言之,与其将这些应用程序用作宝贵的支持,以帮助学生履行职责并提高工作质量,而是将它们用作学生自己的努力的替代品可以长期导致高度负面的行为成果,例如懒惰,避免责任和削弱决策能力。这正是负责使用人工智能的关键重要性变得显而易见。AI在教育中的道德和负责任可以减轻这些负面影响。在这种情况下,应告知学生和老师关于人类技能的长期恶化,这可能是由于AI代替人为努力而导致的。提高人们对这些工具如何用于补充人类能力的认识,而不是取代它们,并了解这种使用的界限在教育中变得越来越重要。教育中的人工智能技术不应被视为取代个人或无视个人责任的系统,而应视为支持和互补的工具。确保平衡的方法需要基于道德的AI素养,这对于认识到与AI在教育中相关的机会和风险至关重要。通过增强学生,教师和教育管理人员之间的AI识字率,可以促进对这些技术的有效和负责任的使用,同时提高人们对潜在风险的认识,尤其是道德违规行为。