曾几何时,教育工作者担心 CliffsNotes 的危险——这种学习指南将伟大的文学作品呈现为一系列要点,许多学生用它们来代替实际阅读。
今天,这看起来确实很奇怪。
突然间,新的消费者人工智能工具已经进入市场,它可以获取任何文本、音频或视频片段,并提供同样的简化摘要。这些摘要不仅仅是一系列带有要点的俏皮文字。如今,学生可以使用 Google NotebookLM 等工具将他们的讲义变成播客,听起来很阳光的人工智能机器人在关键点上开玩笑和即兴发挥。大多数工具都是免费的,只需单击按钮即可在几秒钟内完成工作。
当然,这一切引起了一些教育工作者的担忧,他们看到学生以前所未有的速度将合成信息的艰苦工作卸给了人工智能。
但整体情况更加复杂,特别是当这些工具变得更加主流并且它们的使用开始成为商业和课堂以外的其他环境中的标准时。
教学专家表示,这些工具为神经分化的学生提供了特殊的生命线,他们突然可以获得可以帮助他们组织起来并支持他们的阅读理解的服务。
“没有通用的答案,”印第安纳大学布卢明顿分校的信息学讲师 Alexis Peirce Caudell 说,他最近完成了一项作业,许多学生分享了他们对人工智能工具的经验和担忧。– 生物学专业的学生将以一种方式使用它,化学专业的学生将以另一种方式使用它。我的学生都以不同的方式使用它。 –
老师强调,这并不像假设学生都是作弊者那么简单。
“一些学生担心使用工具的压力 - 如果所有同龄人都这样做,他们就应该这样做,即使他们觉得这妨碍了他们真正的学习,”她说。他们会问自己这样的问题:“这是否可以帮助我完成这项特定的作业或这项特定的测试,因为我正在尝试浏览五个课程并申请实习机会”,但是以牺牲学习为代价的?
这一切都给学校和大学带来了新的挑战,因为他们试图为人工智能在课堂上的使用设定界限和政策。
科技公司似乎每周(甚至每天)都会宣布学生在学习中采用的新功能。
例如,就在上周,苹果发布了适用于 iPhone 的 Apple Intelligence 功能,其中一项功能可以将任何文本片段重新设计为不同的语气,如休闲或专业。上个月 ChatGPT 制造商 OpenAI 发布了一项名为帆布其中包括供用户立即更改文本阅读级别的滑块。
密西西比大学写作和修辞学讲师马克·沃特金斯 (Marc Watkins) 表示,他担心学生会被这些工具节省时间的承诺所吸引,而可能没有意识到使用它们可能意味着跳过内化和理解所需的实际工作。记住材料。
将 EdSurge 新闻免费发送到您的收件箱。订阅我们的时事通讯。
“从教学的角度来看,这对我来说非常令人担忧,”他说。“因为我们希望我们的学生有一点挣扎,有一点摩擦,因为这对他们的学习很重要。”
他表示,新功能让教师更难鼓励学生以有用的方式使用人工智能,比如教他们如何制作提示来改变某件事的写作水平:“它消除了最后一个理想的难度,当他们只需按下“混搭”按钮即可获得最终草案,并获得有关最终草案的反馈。”
即使是已经采用人工智能政策的教授和大学也可能需要根据这些新型功能重新考虑。
正如两位教授所说最近的一篇专栏文章,“您的 AI 政策已经过时。”
– 学生阅读了您上传的文章,但记不住要点,可以使用 AI 助手进行总结或提醒他们在哪里读到的内容。这个人在课堂上被禁止的时候使用过人工智能吗?——询问作者、加州州立大学奇科分校教师发展主任 Zach Justus 和该校社会学教授 Nik Janos。他们指出,Adobe Acrobat 等流行工具现在具有“人工智能助手”功能,只需按一下按钮即可汇总文档。“即使我们在终身教职和晋升档案中评估我们的同事,”教授们写道,“当你翻阅数百页的学生教学评估时,你是否需要保证不按下按钮?Ø
教授们认为,教育工作者不应起草和重新起草人工智能政策,而是应该为聊天机器人提供的可接受的帮助制定广泛的框架。
但沃特金斯呼吁人工智能工具的制造商采取更多措施来减少学术环境中对其系统的滥用,或者正如他在 EdSurge 与他交谈时所说的那样,“以确保这个被如此广泛使用的工具学生实际上对他们的学习是有效的,而不仅仅是作为减轻学习负担的工具。”
这些新的人工智能工具提出了一系列新的挑战,超越了印刷版 CliffsNotes 成为热门学习工具时所面临的挑战。
一是人工智能总结工具并不总能提供准确的信息,这是由于大型语言模型存在一种被称为“幻觉”的现象,即聊天机器人猜测事实,但将其作为确定的事物呈现给用户。
例如,当 Bonni Stachowiak 第一次尝试 Google NotebookLM 上的播客功能时,她说她对机器人声音的逼真程度以及它们似乎对她输入的文档的总结能力感到震惊。Stachowiak 是长期播客的主持人,高等教育教学南加州先锋大学教学院长,她经常在教学中尝试新的人工智能工具。
但当她更多地尝试这个工具,并放入她熟悉的复杂主题的文档时,她注意到偶尔会有错误或误解。“它只是把它弄平了,它忽略了所有这些细微差别,”她说。– 它听起来如此亲密,因为它是一种声音,而音频是一种如此亲密的媒介。但一旦你对某件事了解很多,它就会失败。”
即便如此,她说她发现 NotebookLM 的播客功能有助于她理解和沟通大学的官僚问题,例如将部分教师手册变成播客摘要。她说,当她与熟悉这些政策的同事一起检查时,他们觉得它做得“非常好”。“它非常擅长让二维官僚机构变得更平易近人,”她说。
印第安纳大学的 Peirce Caudell 表示,她的学生也提出了使用人工智能工具的道德问题。
“有些人说他们真的担心生成式人工智能及其使用的环境成本,”她说,并指出 ChatGPT 和其他人工智能模型需要大量的计算能力和电力。
她补充道,其他人担心用户最终会向人工智能公司提供多少数据,尤其是当学生使用免费版本的工具时。
“我们不会进行这样的对话,”她说。“我们没有讨论积极抵制使用生成式人工智能意味着什么?”
即便如此,教师还是看到了对学生的积极影响,例如当他们使用工具来帮助制作抽认卡进行学习时。
她听说一名患有注意力缺陷多动症的学生总是觉得阅读大文本“难以承受”,但正在使用 ChatGPT 来克服最初参与阅读的障碍,然后他们检查自己的理解情况使用 ChatGPT。
Stachowiak 表示,她听说过智障学生正在使用的其他人工智能工具,例如一帮助用户将大型任务分解为更小、更易于管理的子任务。
“这不是作弊,”她强调。– 它正在分解事情并估计某件事需要多长时间。对于很多人来说,这并不是一件自然而然的事情。”