作者:News
在我们的广泛集中智力至关重要播客系列,数学家和哲学家威廉·德姆斯基(William Dembski)加入神经外科医生迈克尔·埃格诺(Michael Egnor)探索信息,进化和人工智能之间的深厚联系。
他们的讨论揭示了如何信息塑造了我们对自然和技术的理解,以及它如何误解它会导致对机器和人类目的的危险假设。
信息保护原则
Dembski以简单的插图开头:有人在诸如“温暖或更冷”之类的线索的指导下寻找隐藏的复活节彩蛋。这些线索有帮助,但是Dembski问:指南从哪里获得信息?找到正确的说明比原始搜索要困难。
这个想法称为信息保护:您可以通过添加指导神奇地减少问题的难度,因为指导本身必须来自某个地方。用数学术语来说,您永远不会从一无所获。任何解决复杂问题的系统都必须包含或可以访问解决该问题所需的信息。
达尔文进化的挑战
Dembski使用这一原则来挑战达尔文进化论。他认为,关于进化的传统主张假设自然过程可以从没有智能来源的简单开端产生复杂的生命。但是,此假设违反了信息的保护,因为复杂性需要事先信息。
他批评了对进化的共同描述,即打字机的猴子最终可能会偶然地偶然地生产莎士比亚的作品的熟悉说法,并在纠正剂的帮助下(一种使用白色外出来的实验室技术人员)。
Dembski说,该实验室技术已经知道目标结果并引入了外部知识。没有外部输入,仅随机突变和自然选择不足以解释生物学复杂性。
信息和熵
Egnor和Dembski探索了信息的保护与物理的关系。正如能量是保守的,而混乱趋于增加(熵),信息也遵循相似的限制。Dembski提到麦克斯韦的恶魔,智能代理组织分子反向熵的思想实验。关键点:逆转障碍需要智力和信息。这与更大的世界观联系在一起,其中智力不仅是自然的产物 - 它可能是其中的基本组成部分。
人工通用情报(AGI)的神话
Dembski对Agi持怀疑态度,即机器有一天会像人类一样思考和理性。他认为这是一个神话。尽管机器可以使用大量数据执行特定的任务,但人类取得了更少的成就。
例如,特斯拉的AI使用数十亿个视频框架来学习驾驶,但是人们学会了投入得多的驾驶。这表明人类的智能在根本上是不同的,并且可能无法通过机器匹配。
偶像AI的危险
Dembski还警告说,Agi正在成为人们错误地认为会拯救或取代我们的偶像。他指出,即使是硅谷精英也经常以最少的屏幕时间将孩子送到学校,也意识到需要真正的人类联系。AI是一种工具,而不是思想。否则将其治疗会导致成瘾,操纵和文化衰落。
最后的想法
Dembski和Egnor鼓励采用更周到的科学和技术方法。信息是免费的,机器是魔术。通过记住使我们成为人类的原因,我们可以使用技术而不会失去技术。