新兴的人工智能治理工具为了解和控制公司人工智能应用中的情况提供了途径。
他们说广告支出的一半都被浪费了,但问题是搞清楚是哪一半被浪费了。如果这种情况属实,那么对于人工智能来说问题可能更加严重。与那些深入研究AI的人交谈,他们会告诉你,用于AI的资金中有高达90%都是浪费的,因为那潜在的回报如此之好,所以大量的资金都在追逐那难以捉摸的10%。例如,Accenture就有预订了20亿美元今年为了帮助客户理解人工智能,Nvidia和云服务提供商们继续赚取数十亿更多收入也是。
显然人工智能领域有很多钱。对于大多数公司来说,问题应该是:哪些投资有效,哪些应该放弃?
尽管这个问题还没有明显的答案,但一个新的软件类别正在被设计出来以提供解决方案。正如数据科学带来了数据治理一样,像这样的公司整体人工智能交付人工智能治理。初步的努力试图将人工智能治理视为数据、IT或云治理的延伸,但实际上需要一种独特的、独立的方法,因为除了标准的风险评估之外,还需要考虑偏见、有效性等因素。可解释性.
如果这看起来不是最性感的软件类别,想想这样一点:如果它能帮助公司提高他们的AI胜率,那就非常性感了。
人工智能的风险很高
是的,我们的行业也有不少对技术“趋势”的夸大宣传,结果却发现那些只不过是虚无缥缈的流行风尚(例如,)Web3(无论那是什么)。但人工智能是不同的。不是因为我希望如此,也不是因为AI供应商希望如此,而是不管我们如何质疑它(幻觉等),它仍然存在。尽管如此,生成式AI是一种相对较新的AI概念,该技术本身相对成熟,更大的市场包括这样的事情像机器学习最近一两年里,公司可能在宣传人工智能方面显得更加高调了,但这不要让你感到困惑。就在本周,我就与一家拥有大量运行中的AI应用的公司进行了交谈,每个应用每年的成本接近一百万美元。
显然那家《财富》五百强公司看到了人工智能的价值。不幸的是,它们高昂的应用成本中并不总是清楚哪些应用实现了其承诺,哪些引入了更多的风险而非回报。
当一家公司决定构建一个AI应用程序时,他们寄予了很高的期望于大规模语言模型大型语言模型(LLMs)或其他工具在很大程度上(如果有的话)缺乏对其模型如何产生结果的可见性。这对于一家公司来说可能会是灾难性的,如果发现他们的算法持续对受保护群体(如少数民族等)存在偏见、错误定价产品或导致其他问题。因此,监管机构和董事会更加关注所谓的“算法执行确保人工智能带来繁荣,而不是萧条。
从商品到速度
已经厌倦了不断评审最新的大型语言模型。几乎每天,Meta都会超越OpenAI,而后者又会超越Google,这家公司再超越任何有能力投入数十亿美元进行基础设施和研发以提升模型性能的公司。到了第二天,这些公司就会轮换宣布谁是当天最快的。这有什么意义呢?总体而言,企业正在以更低的成本获得更好的表现,但这都没有意义,如果这些企业无法有信心地在这些模型上构建的话。
要通过AI实现真正的业务速度,公司需要对其所有AI项目进行全面的可见性和控制。例如,全面AI可以无缝地与所有常见数据和AI系统集成。更棒的是,它能够自动发现组织中的所有AI项目,优化库存管理,并提供统一的仪表板,使高管能够全面了解其AI资产并据此采取行动。例如,全面AI软件会在特定应用程序中揭示潜在的监管和技术风险,提醒团队在问题变得令人尴尬或昂贵(或两者兼而有之)之前解决这些问题。
这与云治理工具无关,仅因为风险更高。你可以认为云是管理硬件或软件资产的一种本质上更好、更灵活的方式,但这并不一定根本改变我们对这些概念的看法(尽管无服务器架构例如,它挑战了为支持应用程序而提供基础设施的思维。我们之所以开玩笑地将云称为“别人的电脑”是有原因的。对于AI而言,则从根本上改变了软件和数据的可能性,尽管很多时候我们无法解释这些变化。这就是为什么我们需要像Holistic AI这样的AI治理工具来帮助加快有效的AI实验和采用速度,以最小化我们在使用AI时可能造成伤害而不是带来帮助的风险。
我们越希望在人工智能方面取得进展,就越需要通过人工智能治理系统来设立防护措施。再次强调,这并不是强迫团队放慢速度;而是一种确保减少在高风险、无效的人工智能项目上浪费时间的方式,从而加速进程。