研究人员发现了一种自动驾驶汽车在旅途中自由共享信息的方法,而无需建立直接连接。
“缓存的分散联邦学习”(Cached-DFL)是人工智能(AI)模型共享框架自动驾驶汽车这使他们可以通过对方并共享准确和最新的信息。该信息包括处理导航挑战,交通模式,道路状况以及交通标志和信号的最新方法。
通常,汽车几乎必须彼此相邻,并授予许可,以共享他们在旅行期间收集的驾驶见解。但是,使用缓存的DFL,科学家创建了一个准社会网络,在该网络中,汽车可以查看彼此的驾驶发现页面,而无需共享驾驶员的个人信息或驾驶模式。
自动驾驶汽车目前使用存储在一个中心位置的数据,这也增加了大型数据泄露的机会。缓存的DFL系统使车辆能够在训练有素的AI模型中携带数据,其中存储有关驾驶条件和场景的信息。
“想想它像创建一个为自动驾驶汽车共享经验网络。”刘博士该项目的研究主管和工程教授是纽约大学Tandon工程学院的研究主管。“只有在曼哈顿开车的汽车现在可以从其他车辆中了解布鲁克林的道路状况,即使它从未开车到那里。”
这些汽车可以分享它们如何处理与布鲁克林相似的场景,这些场景将出现在其他地区的道路上。例如,如果布鲁克林有椭圆形的坑洼,无论世界上什么地方,汽车都可以分享如何处理椭圆形坑洼。
科学家上传了他们的学习于2024年8月26日在2月27日在人工智能会议的促进协会中介绍了他们的发现。
更好的自动驾驶汽车的关键
通过一系列测试,科学家发现,自动驾驶汽车之间的快速,频繁的通信提高了驾驶数据的效率和准确性。
科学家将100辆虚拟自动驾驶汽车放入了曼哈顿的模拟版本中,并将其设置为半随机模式的“驱动器”。每辆汽车都有10个AI型号,每120秒更新一次,这是实验的缓存部分出现的地方。这些汽车保留数据并等待共享,直到他们具有适当的车辆到车辆(V2V)连接为止。这与传统的自动驾驶汽车数据共享模型不同,这些模型是直接的,不允许存储或缓存。
科学家们绘制了汽车学习的速度以及cached-DFL是否优于当今自动驾驶汽车中常见的集中数据系统。他们发现,只要汽车彼此100米(328英尺),他们就可以查看和共享彼此的信息。这些车辆不需要互相了解即可共享信息。
“可伸缩性是分散FL的关键优势之一,”Jie Xu博士佛罗里达大学电气和计算机工程副教授告诉Live Science。“与其与中央服务器或所有其他汽车进行通信的每辆汽车,每辆车仅与遇到的汽车更新。这种本地化的共享方法可以防止随着越来越多的汽车参与网络,这种局部共享方法无法呈指数增长。”
研究人员设想缓存的DFL通过降低计算能力的需求使自动驾驶技术更实惠,因为处理负载分布在许多车辆上,而不是集中在一台服务器中。
研究人员的下一步包括对缓存DFL的现实测试,消除了不同品牌的自动驾驶车辆之间的计算机系统框架障碍,以及在车辆和其他连接的设备之间进行通信,例如交通信号灯,卫星和道路信号。这被称为车辆到全能(V2X)标准。
该团队还旨在使更广泛的转变从集中式服务器中移动,而朝着收集和处理最接近收集数据的数据的智能设备,这使数据共享尽可能快。这不仅是用于车辆,而是用于卫星,无人机,机器人和其他新兴的连接设备形式的快速群智能形式。
“分散的联合学习为协作学习提供了至关重要的方法,而不会损害用户隐私,”Javed KhanAptiv的软件和高级安全和用户体验总裁告诉Live Science。“通过本地缓存模型,我们减少了对中央服务器的依赖并增强实时决策,这对于自动驾驶等安全至关重要的应用至关重要。”