英语轻松读发新版了,欢迎下载、更新

人工智能专家说,我们正在错误地实现类似人AI的道路

2025-03-30 12:00:33 英文原文

作者:Isaac Schultz

根据数百名人工智能研究人员的小组的说法,该领域目前以错误的方式追求人工通用情报。

这种见解在人工智能促进协会(AAAI)的2025年AI研究未来的总统小组中得到了揭示。这冗长的报告由24个AI研究人员组合在一起,他们的专业知识从AI基础设施的状态到人工智能的社会方面。

该报告包括针对每个部分的主要收获,以及一个社区意见部分,在该部分中,受访者被询问了自己对该部分的想法。

由麻省理工学院计算机科学家罗德尼·布鲁克斯(Rodney Brooks)主持的AI感知与现实的部分提到了Gartner Hype Cyce Crace Carecrization,这是技术炒作常见的五阶段周期。该报告指出,2024年11月,Gartner估计,生成AI的炒作刚刚通过了其高峰,并且正在下降。”社区意见部分中有79%的受访者表示,当前公众对AI能力的看法与AI研究和发展的现实不符,其中90%的人表示,不匹配正在阻碍AI研究的74%,其中该数字的74%表示,AI研究的指示是由大麻驱动的。

布鲁克斯在一封电子邮件中告诉了吉兹莫多(Gizmodo),这包括他们多年来使用的Gartner炒作周期,这是对所有炒作的普遍性,随之而来的是令人失望。

布鲁克斯补充说,我认为关于AI的大量公众讨论太过接受了炒作水平。”

人工通用情报(AGI)指的是人类水平的智能:一台机器的假设智能,该智能可以解释信息并像人类一样从中学习。Agi是该领域的圣杯,对无数领域和学科的自动化和效率产生了影响。考虑您不想花很多时间去做的任何琐碎任务,从计划旅行到提交税款。可以部署AGI来减轻死记硬背的负担,但也可以促进其他领域的进步,从运输到教育和技术。

令人惊讶的多数票数在475名受访者中有76%说,简单地扩大当前AI的方法将不足以产生AGI。

总体而言,回答表明一种谨慎而前瞻性的方法:AI研究人员优先考虑安全,道德治理,福利分享和逐步的创新,主张协作和负责任的发展,而不是对AGI的竞争。”

尽管炒作扭曲了研究的状态,而当前的AI方法并未使研究人员走上最佳的AGIé€,这项技术已经飞跃了。

•五年前,我们几乎不可能进行对话 - AI仅限于可以容忍的误差比例很高的应用,例如产品建议,或严格限制了知识领域的范围,例如对科学图像进行分类,例如对弗吉尼亚大学的计算机科学家进行了分类,并在弗吉尼亚大学的委员会中进行了委托,并在弗吉尼亚大学的董事会中进行了委托。Gizmodo。然后,从历史性的角度来看,AI将军开始工作,并通过聊天机器人(例如Chatgpt)引起公众关注。

该报告阅读了AI事实远未解决,而最好的LLM仅在2024年的基准测试中正确回答了一组问题的一半。但是,新的培训方法可以改善这些模型的鲁棒性,而新的组织AI的方法可以进一步改善其性能。

Kautz补充说:`我相信,下一阶段提高可信赖性的是将替换单个AI代理商的代理人,而合作的代理团队不断地对其他人进行事实检查,并试图保持诚实诚实。”包括AI研究人员的社区,包括当今最好的AI系统的质量;对AI的看法落后于技术大约一两年。

AI不会去任何地方;毕竟,加特纳的炒作周期并不以淡入的衰落结束,而是生产力的高原。他们领域的状态。从AI系统的构建方式到它们在世界上部署的方式,都有创新和改进的空间。由于我们回到没有AI的时间,因此唯一的方向是前进的。

关于《人工智能专家说,我们正在错误地实现类似人AI的道路》的评论


暂无评论

发表评论

摘要

人工智能促进协会(AAAI)发布了其2025年总统小组AI研究未来的报告,表明当前追求人工通用情报(AGI)的方法被误导了。该报告由24位AI专家编写,重点介绍了公众看法与AI研究的实际状态之间的重大差异。超过79%的受访者认为,公众的看法与现实之间存在不匹配,其中90%的人表示这种差异阻碍了AI研究的进展。此外,有76%的小组成员得出结论,扩大当前方法不会导致AGI。尽管面临挑战,该报告还是强调了谨慎的乐观情绪,并强调了道德治理和安全性在负责任地推进AI技术方面的重要性。