英语轻松读发新版了,欢迎下载、更新

构建人工智能时,越简单越好吗?新研究挑战假设

2025-01-06 17:31:10 英文原文

作者:Binghamton University

When building AIs, is simpler better? New research challenges assumptions
PPM 网络上社区检测方法的性能。信用:自然通讯(2024)。DOI:10.1038/s41467-024-52355-w

在尝试解决问题时,人工智能经常使用神经网络来处理数据并以模仿人脑的方式做出决策。

在他的最新研究中,宾厄姆顿大学助理教授 Sadamori Kojaku 挑战了人工智能领域的一个基本假设——更复杂的总是更好。

纸,发表自然通讯,表明简单的神经网络可以找到社区具有理论最优性,质疑“更复杂的模型优于更简单的模型”的普遍观点。

“我们发现,重要的是培训,而不是编程架构本身,”于 2023 年秋季加入托马斯·J·沃森工程与应用科学学院系统科学与工业工程学院的 Kojaku 说。

“教授神经网络的方法有很多,但我们发现最好的教学方法之一是对比学习,即呈现真实数据和假数据,以便训练神经网络来区分两者。这种简单的训练可以实现最佳性能。”

了解人工智能的工作原理对于在医疗保健或电网等关键领域做出决策时建立信任至关重要。

目前,人工智能得出结论的确切途径位于程序员所说的“黑匣子”内。数据输入会产生结果,但这些点之间的路径可能是神秘的。

Kojaku 说:“我们的工作对神经网络进行了拆箱,然后尝试解释它的工作原理,以保证该神经网络能够以最佳方式完成特定任务。”“这是我们第一个尝试敲击黑匣子的作品。”

印第安纳大学的 Filippo Radicchi、Yong-Yeol Ahn 和 Santo Fortunato 教授也对这篇论文做出了贡献,Kojaku 在获得博士学位后曾在印第安纳大学担任博士后研究员。在来到宾厄姆顿之前,他曾在日本北海道大学学习。

更多信息:Sadamori Kojaku 等人,通过神经嵌入进行网络社区检测,自然通讯(2024)。DOI:10.1038/s41467-024-52355-w

引文:构建人工智能时,越简单越好吗?新研究挑战假设(2025 年 1 月 6 日)检索日期:2025 年 1 月 7 日来自 https://techxplore.com/news/2025-01-ai-simpler-asminations.html

本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。

关于《构建人工智能时,越简单越好吗?新研究挑战假设》的评论


暂无评论

发表评论

摘要

宾厄姆顿大学助理教授 Sadamori Kojaku 的研究挑战了“更复杂的神经网络在人工智能中总是更优越”的观念。该论文发表在《自然通讯》上,证明简单的神经网络可以通过对比学习(一种特定的训练方法)在复杂网络中的社区检测中实现最佳性能。这一发现对关于模型复杂性的普遍假设提出了质疑,并提供了关于人工智能系统如何以最佳方式完成某些任务的见解,从而有可能增强对医疗保健和电网等关键应用程序的信任。