作者:by Mike Walsh
迪米特里·奥蒂斯/盖蒂图片社
在许多情况下,需要以人为形式进行监督以避免灾难。然而,如果你对代理人施加过多的监督,你就会失去生产力的提高。自由度太小,座席的能力仅限于回答简单的问题。太多的自主权,品牌、声誉、客户关系,甚至财务稳定性都面临风险。问题是,为了变得更好,人工智能代理需要在现实世界中自由地学习和成长。那么,在赋予人工智能代理自主权方面,正确的平衡是什么?令人惊讶的是,答案不仅仅在于风险有多大;还在于风险有多大。关键在于我们对这些风险的理解程度。在本文中,作者概述了在确定给予人工智能代理多少自主权时需要考虑的三种问题。
我们正在见证从基本的人工智能聊天机器人到真正的认知主体– 能够进行战略性思考、计划并从成功和失败中学习的系统。然而,如果我们总是让人类参与其中,我们就不太可能获得人工智能转型的真正好处。那么,我们应该给予人工智能代理多少自由度?令人惊讶的是,答案不仅仅在于风险有多大;还在于风险有多大。关键在于我们对这些风险的理解程度。自由度太小,座席的能力仅限于回答基本问题。太多的自主权,品牌、声誉、客户关系,甚至财务稳定性都面临风险。一种方法是等到关于代理人工智能的普遍监管和商业共识出现。或者,对于那些足够大胆的人来说,可以利用不确定性作为决策规则来了解下一步该做什么。