希腊哲学家柏拉图(Plato)写道,苏格拉底(Socrates)在公元前385年,挑战了一个“使广场加倍”问题的学生挑战。当被要求将正方形的面积加倍时,学生将每一侧的长度加倍,不知道新广场的每一侧都应是原始的对角线的长度。
剑桥大学和耶路撒冷希伯来大学的科学家选择了这个问题,因为它的解决方案不明显。自2400年前柏拉图的写作以来,学者们已经使用了两倍的方形问题来争论是否已经在我们内部,通过理性释放或仅通过经验来访问它所需的数学知识。
当团队走得更远时,答案就来了。如9月17日在《期刊》上发表的一项研究中所述国际科学与技术数学教育杂志,他们要求聊天机器人使用类似的推理将矩形区域加倍。它回答说,由于矩形的对角线不能用来使其大小加倍,所以几何没有解决方案。
但是,访问剑桥大学学者纳达夫·马可来自耶路撒冷希伯来大学,数学教育教授Andreas Stylianides,知道存在一种几何解决方案。
马可说,Chatgpt培训数据中存在的虚假主张的机会“消失了很小”,这意味着基于先前关于平方问题加倍的讨论,它正在即兴回答,这是生成的而不是先天学习的明显迹象。
“当我们面对一个新问题时,我们的本能通常是根据我们过去的经验来尝试一下,”马可在9月18日在陈述。“在我们的实验中,Chatgpt似乎做了类似的事情。例如学习者或学者,它似乎提出了自己的假设和解决方案。”
想到的机器?
这项研究阐明了有关有关的问题人工智能科学家说(AI)“推理”和“思维”的版本。
因为它似乎是即兴的反应,甚至犯了像苏格拉底的学生,马可和Stylianides这样的错误,建议Chatgpt可能正在使用我们已经从教育中知道的概念近端开发区(ZPD),描述了我们所知道的与最终通过正确的教育指导所知道的差距。
他们说,Chatgpt可能会自发地使用类似的框架,从而解决了培训数据中未代表的新问题,这仅仅是正确的提示。
这是AI中长期存在的黑匣子问题的一个鲜明的例子,在该问题中,该系统得出结论的编程或“推理”是看不见且无法受访的,但研究人员说,他们的工作最终凸显了使AI对我们更好地工作的机会。
Stylianides在声明中说:“与信誉良好的教科书中发现的证据不同,学生不能假设Chatgpt的证据是有效的。”“理解和评估AI生成的证据正在成为需要嵌入数学课程中的关键技能。”
这是他们希望学生在教育环境中掌握的核心技能,例如,他们说的是要更好的及时工程学。
团队对结果持谨慎态度,警告我们不要过度解释它们,并得出结论LLMS“解决问题”,就像我们一样。但是,Marco将Chatgpt的行为标记为“学习者”。
研究人员看到了在多个领域的未来研究范围。可以在更广泛的数学问题上测试较新的模型,并且还可以将Chatgpt与动态的几何系统或定理抛弃相结合,创建更丰富的数字环境,以支持直觉探索,例如,教师和学生使用AI在课堂上共同工作。