作者:Binghamton University
在尝试解决问题时,人工智能经常使用神经网络来处理数据并以模仿人脑的方式做出决策。
在他的最新研究中,宾厄姆顿大学助理教授 Sadamori Kojaku 挑战了人工智能领域的一个基本假设——更复杂的神经网络总是更好。
纸,发表在自然通讯,表明简单的神经网络可以找到社区复杂网络具有理论最优性,质疑“更复杂的模型优于更简单的模型”的普遍观点。
“我们发现,重要的是培训,而不是编程架构本身,”于 2023 年秋季加入托马斯·J·沃森工程与应用科学学院系统科学与工业工程学院的 Kojaku 说。
“教授神经网络的方法有很多,但我们发现最好的教学方法之一是对比学习,即呈现真实数据和假数据,以便训练神经网络来区分两者。这种简单的训练可以实现最佳性能。”
了解人工智能的工作原理对于在医疗保健或电网等关键领域做出决策时建立信任至关重要。
目前,人工智能得出结论的确切途径位于程序员所说的“黑匣子”内。数据输入会产生结果,但这些点之间的路径可能是神秘的。
Kojaku 说:“我们的工作对神经网络进行了拆箱,然后尝试解释它的工作原理,以保证该神经网络能够以最佳方式完成特定任务。”“这是我们第一个尝试敲击黑匣子的作品。”
印第安纳大学的 Filippo Radicchi、Yong-Yeol Ahn 和 Santo Fortunato 教授也对这篇论文做出了贡献,Kojaku 在获得博士学位后曾在印第安纳大学担任博士后研究员。在来到宾厄姆顿之前,他曾在日本北海道大学学习。
更多信息:Sadamori Kojaku 等人,通过神经嵌入进行网络社区检测,自然通讯(2024)。DOI:10.1038/s41467-024-52355-w
引文:构建人工智能时,越简单越好吗?新研究挑战假设(2025 年 1 月 6 日)检索日期:2025 年 1 月 7 日来自 https://techxplore.com/news/2025-01-ai-simpler-asminations.html
本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。