作者:Manuel Ansede
特伦斯·陶听到有人根据一些在线排名(包括最近的一项调查)称他是地球上最聪明的人时,他会不屑地哼笑并挥手表示拒绝。BBC然而,他无疑是历史上最优秀的数学家之一。在他两岁的时候,他的父母看到他在教一个五岁的男孩数数。
“这是我父母告诉我的,我自己并不记得。他们问我从谁那里学来的,我说是从《 sesame street 》(芝麻街)。”陶(现年49岁,在澳大利亚阿德莱德出生)说道。他11岁时在国际数学奥林匹克竞赛中获得铜牌,12岁时获得银牌,13岁时获得金牌。21岁时,他从普林斯顿大学获得了博士学位。24岁时,他已经成为了加州大学洛杉矶分校的教授。而在31岁那年,他赢得了菲尔兹奖被视为他所在领域的诺贝尔奖。
“他是数学界的莱昂纳多·达芬奇,”他的西班牙同事埃娃·米兰达在9月18日巴塞罗那数学研究中心组织的一次演讲中说道。“毫不夸张地说,他是当今最伟大的数学家。他特别之处在于他的适应能力最强,”米兰达解释道。
陶应对最困难的问题,如纳维-斯托克斯方程这些方程自1845年以来一直描述液体和气体的运动。根据流体的温度、黏度和初始速度,这些方程可以计算出其在稍后时间的速度。在其提出近两个世纪之后,人们仍然不知道解是否总是保持一定的规律性,或者是否会突然发生变化。找到答案的人将获得100万美元奖金,因为它被美国克莱研究所列为七个千禧年问题之一并提供奖励。
在业余时间,陶(指数学家陶哲轩)将数学分析应用于时事谜题,比如最近委内瑞拉的总统选举。在他的博客上,这位数学家关注到了官方结果中异常圆滑的百分比数字。尼古拉斯·马杜罗据说获得了5,150,092票,正好是51.2%。他的竞争对手、反对派候选人埃德蒙多·冈萨雷斯·乌里塔获得了4,445,978票,正好是44.2%。其余的选票将精确地占到4.6%。陶认为这些结果几乎是不可能出现的。
问题.你已经对委内瑞拉的大选进行了数学分析。
答案。贝叶斯概率是更新你对某件事情信念的数学方法。你可能认为这件事情的概率是委内瑞拉的选举是公平的,或者这些选举被操纵了,或者可能在每种情况下都有50%的概率。每次你获得新的信息时,都可以更新你的信念。如果发生了一些在选举公平的情况下不太可能发生的事情,那么选举被操控的可能性就会增加。反之亦然。有一个公式可以测量这一点,但每当有新的信息进来时,你需要计算在一种假设或另一种假设下该事件发生的概率。一个很好的例子就是彩票的中奖号码。偶尔它们会遵循某种模式,比如10、20、30、40、50。如果彩票是随机的,这些模式出现的概率非常低;但如果抽奖被操控了,这些模式出现的概率也很低。只是这种奇怪的模式每一百万次才会出现一次,并没有什么特别的意义。
Q.在委内瑞拉呢?
A.委内瑞拉选举中发生的情况是,每个选区的票数没有被宣布,而是公布了总的结果,和每个数字都是一个精确的百分比有大约一千万张选票,恰好是51.2%,完全没有误差。这非常不寻常。如果报告的结果没有错误或被操纵的话,那么出现这种极其圆整的百分比结果的概率仅为一亿分之一。总统本可以告诉选举委员会:“我希望这些百分比成为结果。”操控是一个合理的解释,而偶然性则不太可能。这增加了选举被操控的可能性。
Q.操纵结果的概率是多少?
A.有三种假设。一是选举是公平的,数字也被准确报告了。第二种是投票被操纵了第三点是,选举委员会只是犯了一个大错误,这是无能的表现,并非恶意。第一个假设现在已经几乎被排除了,因为那些整数出现的可能性极小。因此问题归结为你是认为委内瑞拉政府腐败更有可能还是仅仅是无能。两者都可以解释这一特定数据。自选举以来已经过去了两个月,我认为随着时间的推移,操纵行为存在的可能性变得越来越大,因为他们还没有发布每个区的具体数据。如果他们只是无能并且在百分比上犯了错误,现在应该已经纠正过来了。经过这么长时间后他们仍未采取行动使得某些形式的操作更有可能存在。
Q.你担任美国总统的科学顾问,并且是白宫关于风险和机遇任务小组的联合主席生成式人工智能在一本新书中,奈克斯(或译作纳许斯)历史学家尤瓦尔·诺亚·哈拉里认为,人工智能构成的威胁甚至可能摧毁人类。你认为呢?
A.从理论上讲是可能的。这是一项非常强大的技术。在过去有很多变革性的技术——汽车、飞机、互联网等等,但使人工智能特别之处在于它几乎影响了我们所做的一切事情:新闻业、数学、医学或任何其他领域。这一切都有可能会通过人工智能力量实现。它也可能被用来帮助建造武器——可能不是军事武器,而是例如制作深度伪造视频来改变选举结果。人们担心人工智能会成为一个超级智能并掌控地球,就像科幻电影中的情景一样,比如《终结者》电影里的斯凯尼德。终结者]. 但当前的技术非常有限:它们基本上是擅长猜测的机器。你问它一个问题,它会猜出答案,有时候几乎正确,有时候完全是垃圾。一旦遇到没有很多数据支持的非常规情况,AI仍然表现得很差。所以我不是很担心。10年或20年后这项技术将更加先进,可能会出现一些能够做危险事情的强大AI,但到那时我们也会有很多与之打交道的经验,并知道如何防御它们。
Q. 问.尤瓦尔·诺亚·哈拉里在他的书中声称,一个恐怖组织可以创造出一种新的致命病原体并将其释放……
A.他们更可能因为尝试这样做而自杀。实际上,如果你仔细寻找,互联网上已经有相关的指导说明了,所以这是一个值得关注的问题,但这些AI犯了很多错误。一个优点是最先进的AI无法装在手机或笔记本电脑上。你需要一组庞大的超级计算机等等设备。世界上只有少数地方能够建造这样的机器,因此这是不可能被隐藏的事情。特别是恐怖分子并不擅长使用电子设备,正如我们刚刚看到的那样。
Q.你指的是黎巴嫩真主党传呼机的爆炸事件.
A.确实,他们可能对AI工具非常怀疑,因为这些工具可能会被用来对付他们。对于他们来说,这比对我们来说更加危险。
在数学中,水可能会“爆炸”,但实际情况远没有听起来那么令人兴奋。
Q.说到爆炸,根据纳维-斯托克斯方程,理论上水能否自发爆炸并摧毁世界?
A.在数学中,它可能会“爆炸”,但实际情况远没有听起来那么令人兴奋。纳维-斯托克斯方程被认为控制着流体的运动。它们是自然法则的一种简化形式。实际的物理定律非常复杂,因为水中有万亿个原子。单独模拟每一个都是不可能的,所以我们做出一个假设:我们假定所有粒子的速度波动不会太大。然后我们就得到了这些由纳维-斯托克斯方程描述的东西。我们用它来模拟天气和海洋运动等现象,但有一种情况是纳维-斯托克斯方程不再成为流体的良好模型了。
Q. 问.那是哪种场景?
A.水中的能量具有一定的动能,因为每个粒子以一定速度移动。所以存在粘性。由于摩擦,动能会随着时间的推移慢慢减少。水不能在任何地方越来越快地运动。但可能发生的情况是所有的动能集中在一个小区域内。最初,动能可能在整个流体中分布。但是,也许所有能量都转移到了一部分快速移动的水中,然后转移到更少的一部分更快移动的水中。这将形成所谓的奇点,并且你会看到水出现数学上所说的“爆破”,但这并不是真正的爆炸。它只是意味着在一个地方速度变得无限大。这就像是你挥动鞭子一样。鞭子一开始很粗,但末端很小。当你挥动时,波浪开始缓慢移动,但随着鞭子变细,它的移动会更快。到最后,它的移动速度超过了音速并产生了鞭声。这就是我们所说的“爆破”。你能像挥动鞭子那样让水产生这样的现象吗?我们称之为“爆破”,但它更像是裂纹,一种音爆。
Q.几个月前,谷歌深度思维公司宣布其人工智能系统AlphaProof和AlphaGeometry在国际数学奥林匹克竞赛中获得了一枚银牌。
A.是的,但有一个前提:那不是在官方比赛中。
Q.你在12岁的时候获得了银牌。人工智能达到了12岁的陶哲轩的水平了吗?
A.这是一个令人印象深刻的成就,我们没想到它现在会发生。我们认为可能需要两到三年的时间,但有一些需要注意的事项。首先,这是两个独立的程序,两个独立的人工智能。总共有六个问题。一个解决了三个问题,另一个解决了第四个问题,这足以获得银牌。另一点是这些人工智能没有直接得到这些问题本身,而是由人类将它们翻译成了一种特殊语言。此外,他们拥有了更多的时间。在真正的奥林匹克竞赛中,学生们有八小时来解决所有六道题。而AI需要三天时间才能解决一个问题,尽管它运行的是谷歌庞大的超级计算机集群。这不像ChatGPT,你输入提示的地方并且它在10秒内给出答案。所以这并不完全等同于人类级别的竞赛,但仍然非常令人印象深刻。当然,在其他一些领域计算机比人类要好很久了。一个拿着计算器的孩子总能比我用纸和笔计算算术题更擅长。计算机在国际象棋、扑克以及许多电子游戏中,如《星际争霸》,也比人类表现得更好。所以我认为在未来两三年内,将会有在这些数学竞赛中比人类更好的人工智能。
Q.比你强?仅仅三年就能做到?
A.嗯,但我已经很多年没有参加这些比赛了。这与研究数学是完全不同的活动。这些比赛就像奥运会的百米短跑,而研究则像是一场马拉松。你需要花费几个月的时间来解决一个问题,并且需要查阅之前的文献。
人类数学家之所以擅长他们的工作,其中一个原因是他们会犯很多错误并学会什么不起作用。AI没有这些数据
Q.你认为人工智能能在像数学研究这样富有创造性的活动中变得比你更优秀吗?
A.我认为它们将会是非常有用的助手。它们越来越擅长解决那些有很多关于类似问题的先前数据的问题。问题是,数学家通常只发布我们的成功故事,我们不会分享尝试过但没有奏效的东西。而人类数学家之所以能够胜任工作的一个原因是他们犯了很多错误并学会了哪些方法行不通。AI缺乏这些数据。
Q.那么?
A.所有现代人工智能系统都基于大量的数据。如果你想教会一个人工智能水杯的样子,它们需要成百万的水杯图像作为样本。如果我给你倒一杯水并展示给你看,你会说,“好吧,我知道了。”我们需要在用非常少量的数据来训练人工智能方面取得突破,而我们目前完全不知道如何做到这一点。如果我们能够解决这个问题,也许人工智能就能像人类一样擅长进行真正富有创意的任务。
Q.你认为人工智能系统应该由像埃隆·马斯克这样的超富人群掌握吗?
A.有一些开源的人工智能模型,尽管它们比大型商业模型落后两到三年。对于像人工智能这样重要的技术来说,被一两家公司垄断是不好的,但是构建这些AI的基本技术相当公开透明。原则上,任何人都可以建立一个AI系统。问题是它需要大量的硬件、大量数据和大量的训练。要创建这样一个真正大规模的模型需要花费数亿美金,但随着时间推移成本会下降。未来将会有许多开源的人工智能替代方案。我认为有必要对人工智能的一些方面进行监管。AI生成深度伪造的能力可能造成相当大的损害。有少数情况可能会左右选举。
Q.有些商人也略显与众不同。
A.当这些AI模型问世时,有人担心它们会被用来制造宣传内容,比如保守派的ChatGPT、自由派的ChatGPT或只会提供中共认可答案的中国共产党ChatGPT,关于台湾或其他问题。这种情况并未发生。我们需要一些监管措施,但迄今为止并没有像我们担心的那样造成损害。即将发生的情况是人们会失去信任。以前,人们看到一段事件视频就会相信它确实发生了。当时无法伪造一架飞机撞击世贸中心的画面。现在借助AI技术,这种造假成为可能。结果就是,即使某些事情是真实的,人们也不会再相信了。人们将不再相信照片和视频的真实性。如果一切都可以被伪造,我们如何让人确信某件事真的发生过?这是一个问题。我们必须找到新的方法来验证事实。
注册我们的周报newsletter获取更多《EL PAÍS USA版》的英语新闻报道