“人工智能教父”说我们不能犯错
2025-01-10 22:23:20
根据杰弗里·辛顿(Geoffrey Hinton)在总结中提供的回应和见解,他似乎通过强调人类认知与当前大型语言模型之间的相似性来解决人工智能毁灭人类的担忧。从他的角度来看,以下是一些要点:1. **人类认知相似性**:Hinton 认为人类也会犯错误并创造看似合理但不正确的记忆或陈述,就像当前的人工智能系统所做的那样(“幻觉”)。例如,他展示了当一个人被问到奶牛喝什么时,他的第一反应可能是“牛奶”,尽管从逻辑上讲它应该是水。这表明人类认知无法避免错误和偏见,这使得人工智能系统犯类似错误的想法不那么令人惊讶或担忧。2. **符号与神经网络方法**:Hinton 强调了与 Stuart Russell 等来自符号人工智能背景的专家的观点差异,他们认为人类使用与神经网络不同的基于逻辑的推理。相比之下,辛顿认为人类思维过程更类似于当前神经网络模型的关联和概率性质。3. **人工智能安全研究**:虽然承认人类是否能够足够安全地监管或开发技术以防止破坏性人工智能结果是一个悬而未决的问题,但他认为大型科技公司对安全措施的投资至关重要。他对通过更加关注人工智能安全研究和开发来降低风险的可能性仍然持乐观态度。总之,Hinton 的回应提出了一种微妙的观点,即人类的认知局限性被认为与当前人工智能的能力相当,从而将人工智能摧毁人类的担忧重新定义为更类似于管理所有先进技术固有的风险,而不是人工智能独有的生存威胁。他强调强有力的安全措施和持续研究对于有效应对这些挑战的重要性。