模型上下文协议标准化AI如何使用OpenAI和人类支持的数据源。
在AI助理市场中获得OpenAI和人类的两个竞争对手需要什么?尽管方向有根本的差异,这导致人类的创始人达到退出Openai在2020年和以后创建Claude AI助手,共享的技术障碍现在将它们汇总在一起:如何轻松将其AI模型连接到外部数据源。
该解决方案来自拟人化,该拟人开发并释放了一个称为的开放规范模型上下文协议(MCP)在2024年11月。MCP建立了一个免版税协议,该协议允许AI模型与外部数据源和服务连接,而无需为每种服务提供唯一的集成。
“将MCP视为AI应用程序的USB-C端口,”写MCP文档中的拟人化。类比是不完美的,但它代表了这样一种观念,即类似于USB-C统一的各种电缆和端口(诚然,有争议的级别成功),MCP旨在标准化AI模型如何连接到周围的Infoscape。
到目前为止,MCP在罕见的跨平台合作表演中还引起了多家科技公司的兴趣。例如,微软有融合的MCP进入其Azure OpenAi服务,正如我们上面提到的,人类竞争对手OpenAI正在登机。上周,Openai承认MCP在其代理商API文档中,楼上老板的声音支持。
“人们喜欢MCP,我们很高兴能在我们的产品中增加支持,”写Openai首席执行官Sam Altman上周三。
近几个月来,MCP还迅速开始获得社区支持。例如,只需浏览此列表超过300个开源服务器在GitHub上共享,揭示了对AI对工具连接标准化的兴趣日益浓厚的兴趣。该集合跨越了不同的域,包括PostgreSQL,MySQL和Vector数据库等数据库连接器;与GIT存储库和代码编辑器集成的开发工具;各种存储平台的文件系统访问;用于文档和网站的知识检索系统;以及用于金融,医疗保健和创意应用的专门工具。
其他值得注意的示例包括将AI模型连接到家庭自动化系统,实时天气数据,电子商务平台和音乐流媒体服务的服务器。某些实现使AI助手可以与游戏引擎,3D建模软件和IoT设备进行交互。
无论如何,什么是背景?
要充分理解为什么对外部数据源的通用AI标准有用,您需要了解AI字段中的“上下文”意味着什么。
借助当前的AI模型体系结构,AI模型对世界的“了解”以一种不变的形式融入了其神经网络,并以一种称为“预训练”的初始程序放置在此处,该程序计算了大量输入数据之间的统计关系(“培训数据”(“培训数据”,喜欢书籍,书籍和图像,图像和图像),并将其馈送到网络中,并将其馈送到数值中。后来,一个称为“微调”的过程可能会调整这些权重以改变行为(例如,通过强化学习RLHF)或提供新概念的示例。
通常,训练阶段在计算上是非常昂贵的,并且在基本模型的情况下仅发生一次,或者很少发生定期模型更新和微调。这意味着AI模型仅在培训数据集完成时才具有“截止日期”之前事件的内部神经网络表示。
之后,AI模型以一种称为“推理”的仅读取模式运行,用户将输入输入到神经网络中以产生输出,这称为“预测”。它们之所以称为预测,是因为这些系统被调整为预测用户提供的序列中最有可能的隔壁令牌(例如单词的一部分)。
在AI字段中,上下文是用户提供的序列所有馈送到AI模型中的所有数据,该数据将指导模型产生响应输出。此上下文包括用户的输入(“提示”),运行对话历史记录(在聊天机器人的情况下),任何外部信息源都引入了对话,包括定义模型行为和”的“系统提示”记忆“回忆过去对话的部分的系统。模型可以一次摄入的上下文量的限制通常称为“上下文窗口”,“上下文长度”或“上下文限制”,具体取决于个人喜好。
尽管提示为模型提供了重要的信息,但传统上访问外部信息来源很麻烦。在MCP之前,AI助理像Chatgpt和Claude一样可以访问外部数据(一个通常称为的过程检索增强产生,或抹布),但是这样做需要为每个服务插件,API和专有连接器进行自定义集成,这些连接器在不同的AI模型中不起作用。每个新数据源都要求独特的代码,从而构成维护挑战和兼容性问题。
MCP通过提供标准化方法或一组规则(“协议”)来解决这些问题,该规则允许任何支持AI模型框架与外部工具和信息源连接。
MCP如何工作?
为了使AI模型和数据源之间的幕后连接,MCP使用客户端服务器模型。AI模型(或其主机应用程序)充当连接到一个或多个MCP服务器的MCP客户端。每个服务器都可以访问特定资源或功能,例如数据库,搜索引擎或文件系统。当AI超出其培训数据以外的信息时,它将请求发送到适当的服务器,该服务器执行操作并返回结果。
为了说明客户服务器模型在实践中的工作方式,请考虑使用MCP的客户支持聊天机器人,该聊天机器人可以从公司数据库实时检查运输详细信息。“订单#12345的状态是什么?”将触发AI查询订单数据库MCP服务器,该数据库将查找信息并将其传递给模型。然后,该模型可以将这些数据纳入其响应中:“您的订单将于3月30日发货,并应于4月2日到达。”
除了客户支持之类的特定用例外,潜在范围还很广泛。早期开发人员已经为Google Drive,Slack,Github和Postgres数据库构建了MCP服务器。这意味着AI助手可以在公司驱动器中搜索文档,查看最新的Slack消息,在存储库中检查代码或通过标准接口在数据库中分析数据。
从技术实施的角度来看,人类通过以两种主要模式运行来设计灵活性的标准:某些MCP服务器与客户端在同一台计算机上在本地运行(通过标准输入输出流进行通信),而其他MCP服务器则在HTTP上运行远程响应。在这两种情况下,模型都可以使用可用工具列表,并根据需要调用它们。
正在进行的工作
尽管MCP周围的生态系统不断增长,但该协议仍然是一个早期项目。主要公司支持的有限公告是有希望的第一步,但是MCP作为行业标准的未来可能取决于更广泛的接受,尽管MCP服务器的数量似乎正在迅速增长。
无论其最终采用率如何,MCP都可能具有一些有趣的二阶影响。例如,MCP还具有减少供应商锁定的潜力。由于该协议是模型 - 不合时宜的,因此公司可以从一个AI提供商转换为另一个AI提供商,同时保持相同的工具和数据连接完整。
MCP还可能允许向更小,更高效的AI系统转变,这些系统可以与外部资源更加流畅地交互,而无需定制的微调。同样,公司可能会使用带有较大上下文窗口的较小型号来建立越来越大的模型,而是能够使用较小的模型。
就目前而言,MCP的未来是敞开的。拟人化将MCP作为开源计划在github上,在有兴趣的开发人员可以为代码做出贡献或查找的情况下规格关于它的工作原理。人类也提供了广泛的文档关于如何将Claude连接到各种服务。Openai坚持它在其网站上为MCP提供的API文档。