随着人工智能越来越擅长执行智力任务曾经被认为是人类的独家领域,问题出现了:什么仍然是典型的人类,我们应该如何培养它?
答案在于关注技术无法复制同理心,道德深度以及以情绪智力进行故意的能力的能力。这些能力是我们人类的本质,它们的培养必须成为哈佛目标的核心。
尽管AI在数据处理,模式识别甚至模拟人类创造力方面都表现出色,但它并不能感受到同理心的吸引力,不公正的刺痛或共同时刻的喜悦。机器不能刻意驾驶人际关系复杂性所需的道德深度或情商。
我的一位学生最近在他们的最后一篇论文中捕捉了这种观点:我们周围的世界并不是非凡的,因为它必须提供给我们,而是因为我们必须提供的东西。
这些话突出了一个深刻的真理:在我们消费或观察的内容中,没有发现人类生活的丰富性,而是在我们如何参与,创建和联系中找到的。面对面的审议 - 付出和奉献思想,对相互尊重的要求以及对信任的依赖,体现了AI无法复制的学习类型。它使参与者沉浸在人类互动的挑战和回报中,通过共同的决策来促进代理机构和问责制。
这种逻辑迫使哈佛任务的重新定位。大学不仅必须专注于知识传播,而且还要专注于培养使知识有意义的明显人类能力。哈佛的教室需要是学生和教师无畏参与的空间,思想的交流蓬勃发展以及建立信任的地方。
赌注很高。在一个越来越多地由屏幕和算法介导的世界中,风险不仅是人类技能会萎缩,而且是他们所维持的关系和社区都会造成的。信任和联系的这种侵蚀威胁着社会的结构。哈佛作为教育和创新领域的领导者,有责任通过培养一种重视人类联系和科学进步的文化来抵消这些趋势。
我最近的课程juryx,Trust的弧线为这项任务提供了蓝图。它始于自我意识和脆弱性,由课堂架构支持,该课堂架构结合了小组讨论和一个数字平台,学生可以在该平台上进行假名。
这个私人空间使每个人都可以安全地表达自己的最初想法,观察同龄人的反应,并看到班级中的全部观点。这些早期的交流使学生在小组中面对面审议的学生为信任通过同理心加深,协作和相互尊重加深。
这种弧线不是线性的,而是动态的,反映了人际关系的节奏。它反映了被检查,挑战和完善的思想的不断相互作用。通过这一过程,学生对自己,同龄人和世界有了更深入的了解。通过以这种方式培养信任,课堂成为我们渴望建立一种重视联系,理解和共同责任的社会的典范。
哈佛必须使这种方法成为其任务的中心。它的更多课堂,研究计划和社区参与应优先考虑信任的培养以及其所需的独特人类技能。
通过这样做,大学可以确保其毕业生不仅知识渊博,而且是明智的。不仅熟练而且有同情心;不仅有能力,而且具有深厚的人类。
在人工智能时代,我们最关键的任务不是与机器竞争,而是要定义和拥抱人类的意义。通过优先考虑技术无法替代的技能和关系,哈佛可以帮助确保我们将自己的最佳状态带给世界。
正如我的学生观察到的那样,世界的非凡性不在于其提供的东西,而是我们带来的东西。
Charles R. Nesson 60是哈佛大学法学院的William F. Weld法学教授,也是哈佛大学伯克曼·克莱因互联网与社会中心的创始人。