当她收到电子邮件通知时,她坐在车里:她的教授有给她纸上的零并指责她使用人工智能到欺骗。一个 她的进攻?使用
语法,使用的咒语检查插件人工智能,校对论文。尽管该工具被列为推荐资源UNG的网站,史蒂文斯(Stevens)在不当行为和上诉程序持续了六个月后被置于学术缓刑。在纸上零影响她的GPA,她迷路了她奖学金 结果 在磨难之前,她已经服用了雷克萨普罗(Lexapro)诊断出焦虑和慢性心脏病。
在她期间和之后的几个月中心理健康暴跌。
史蒂文斯说:“我无法入睡或专注于任何事情。”我感到无助
史蒂文斯(Stevens)是越来越多的学生之一不公正地指控使用AI作弊。学校正在寻找解决方案,以解决2022年11月发布之后AI批准的工作的袭击chatgpt,一种生成的人工智能聊天机器人类似人类的文字。但是,使用检测软件会带来误报的风险,并导致不当行为可能影响精神健康学生。
需要休息吗? 玩《今日美国》每日填字游戏。
自2023年11月以来,总部位于纽约的教育顾问LucieVaìGnerovaì与100多个与AI相关的学生不当行为案件合作,并表示,有关误报的客户人数正在上升。”
由于错误的指控,人们担心没收绩效和学术奖学金,并为国际学生失去签证。案件拖延数周或数月并不是非典型的。在极端情况下,学生收到了指责他们毕业后窃的信,这对于开始工作的学生来说是非常压力的。
更多的:教授正在使用Chatgpt探测器工具来指责学生作弊。但是,如果软件错了怎么办?
露西·瓦诺罗瓦(LucieVaìgnerovaì)说:“焦虑可能是我从学术不当行为中听到的最多提到的单词。”他们在告诉我他们没有吃东西,他们没有睡觉,他们感到内gui。
2023年,得克萨斯州农工大学的多个老年人是暂时否认文凭一位讲师指责他的整个动物科学课上使用Chatgpt。教授得出了结论,通过通过Chatgpt来运行学生的工作,并要求该网站确定该软件是否产生了撰写。专家说,Chatgpt不能被信任地检测AI生成的写作。
对于许多学生而言,雇用外部帮助与指控作斗争是不可行的。自由大学高级玛姬·西诺尔(Maggie Seabolt)去年春天,她收到了一份通知,她的论文被标记为35%AI,她很困惑 - 她用Microsoft Word坐在一个纸上打字。作为第一代大学生,她不确定要去哪里求指导。
Seabolt说,看到我内心深处不知道我没有使用AI,这确实非常紧张,因为我不知道如何证明自己的纯真。”我绝对感到非常孤独。
她的教授没有向她报告学术不诚实,但她的纸质成绩为20%。
自由大学不禁止使用AI驱动的写作辅助工具,例如Chatgpt和Grammarly,但澄清学生不应该接受AI产生的修改,涉及大量释义或产生新的写作。他们建议在可能的情况下关闭生成的AI文本功能。
流行的AI检测工具转蛋白产生发病率更高在AI生成的写作百分比低于20%的情况下,假阳性的阳性。公司国家它的检测模型不应用作针对学生采取行动的唯一基础。
我们的指导是,没有替代学生及其写作风格。当对误报的担忧出现时,教育工作者应继续与学生进行公开和诚实的对话,依靠他们的经验和判断力。
UNG由于学生隐私法而拒绝讨论Stevens案的细节,但说使用AI的使用因教室而异,并分享了他们的学术诚信政策,其中包括有关人工智能和窃的指导。
语法代表确认语法向A捐赠了4,000美元GoFundMe史蒂文斯(Stevens)成立并邀请她在一次会议上关于AI创新和学术诚信的会议上的会议,该会议是一家致力于高等教育信息技术的非营利组织。10月,语法推出作者身份,该功能旨在通过过程跟踪从AI检测工具中响应误报。
生成的AI是一种人工智能,可以创建类似人类的文本,图像,编码,音乐和视频。当人工智能研究公司OpenAI发行了Chatgpt时,越来越多的教授们希望窃软软件探测器,例如Turnitin,以验证学术完整性。该软件包括一个AI写作指标分数,该分数突出显示可以用AI工具编写或修改的文本。
但是专家说,检测软件可以将写作误认为是AI生成的。2024年宾夕法尼亚大学学习成立AI探测器很容易被拼写,符号使用和间距的变化所愚弄;该研究建议不要在纪律环境中使用检测器。2023年斯坦福大学 学习发现Chatgpt探测器与非母语说话者有偏见。Chatgpt的母公司Openai禁用由于其准确性较低,他们自己的AI检测平台。
“这不是一个惊喜”教育社区分享了对Chatgpt的不同反应
研究技术伦理和互联网政策的科罗拉多大学博尔德大学副教授凯西·菲斯勒(Casey Fiesler)说,鉴于他们的系统偏见,纯粹基于AI探测器的学术诚信决策是不负责任的。”
伪造阳性的风险太高了。”菲斯勒说。很难捍卫自己免受有缺陷的算法。
问题的一部分是,AI的发展速度与大学对政策做出响应的速度之间存在滞后,这意味着整个学校甚至在给定课程中都没有标准化。”
近一半的高等教育领导人,教职员工和教职员工受访者2024年教育AI景观研究不同意或强烈不同意他们的机构有适当的AI使用指南。只有8%的受访者表示,他们的网络安全和隐私政策足以解决与AI相关的风险。”
报告作者珍妮说,AI政策必须在两个经常竞争的需求之间取得平衡:足够标准化,以便学生了解他们在课程中的期望,并且可以自定义,以便有纪律处分的空间和教师的自治空间。”罗伯特(Robert),是一名高级教育研究员。
堪萨斯大学英语教授凯瑟琳·康拉德(Kathryn Conrad)表示,教育工作者必须意识到,AI检测软件的功能与窃探测工具的功能不同。AI检测工具寻找“爆发”和“困惑性”的模式,而不是将学生工作的相似性与数据库中或网络中的某些东西进行比较。康拉德(Conrad)表示,Turnitin提供了这两种服务,这两种服务都可以弄乱这些水域。”
在她里面AI教育权法案的蓝图,她建议老师在课程中明确概述AI指南,以避免混乱。
•如果您告诉学生他们不能将生成型AI用于论文,但可以让他们使用它进行头脑风暴,然后Turnitin建议学生将生成的AI用于纸张,指责该学生Conrad说,作弊是对工具和探测器如何工作的误解。
防止虚假AI指控的第一步是意识到AI工具的课程政策。
在不当行为指控的情况下,纸质工作痕迹可以帮助证明步骤。VaìGnerovaì建议使用保存草稿的写作软件,例如Google Docs和Microsoft Word。尽早进行作业并利用诸如办公时间和大学写作服务之类的资源可以帮助学生证明如果被错误地被指控,可以证明其工作的独创性。学生还可以主动拍摄Internet搜索历史记录的屏幕截图,以显示写作过程中的研究步骤。
学生辩护律师理查德·阿斯塔尔塔(Richard Asselta)说,对于学生进行镇定并与值得信赖的成年人或同伴交谈,在回应任何使用AI的指控之前,这一点很重要。
我看到的第一个错误之一是学生在没有真正思考的情况下做出回应,有时他们会说出误解的话。”阿斯塔尔塔说。
除了提供纸质踪迹的证据外,阿斯塔尔(Asselta)说,学生应采用逻辑方法,听取教授的关注并正确地遵循一所学校的学术不当行为。
雷切尔·黑尔(Rachel Hale)在《今日美国》中涵盖青年心理健康的角色是由Pivotal Ventures的一笔赠款资助。Pivotal Ventures不提供社论输入。通过rhale@usatoday.com与她联系 @Rachelleighhale在X上。