作者:Marty Swant
寻找使它们更具创造性和差异化的方法变得越来越重要,特别是当主要大型语言模型的训练数据相似时。这一现实让更多的企业客户寻求让人工智能在生成内容时更具创造力的方法,并帮助创造性思维的实际过程。
上个月,人工智能初创公司 Writer 发布了新的法学硕士课程,名为巴尔米拉创意旨在帮助企业从生成式人工智能中榨取更多创造力。我们的目标不仅仅是帮助产出;它还可以帮助公司以更有创意的方式使用人工智能。Palmyra Creative 遵循 Writer 发布的其他特定领域的法学硕士学位,例如以医疗保健为重点的法学硕士学位Palmyra Med 和专注于金融的 Palmyra Fin。(Writer 使用各种模型的客户包括 Qualcomm、Vanguard、Salesforce、Kenvue、Uber 和 Dropbox。)
在创造性思维方面,人工智能模型在过去几年中总体上已经有了很大的发展。一些专家发现法学硕士在发散思维等领域比人类更具创造力。去年,阿肯色大学的研究人员发表论文探索 OpenAI 的 GPT-4 模型如何产生多种创意、找到不同的问题解决方案并探索不同的角度。然而,目前的法学硕士仍然很大程度上局限于他们自己通过培训数据获得的知识,而不是像人类能够利用的生活经验或学到的教训。
作家的过程涉及创建自适应或自适应的人工智能模型– 自我进化, –Writer 首席技术官 Waseem Al Shikh 于 2020 年与 Writer 首席执行官 May Habib 共同创立了该公司。Shikh 解释说,公司现在的重点是开发具有围绕模型构建的框架的模型,而不是担心模型的庞大规模。三个独立的部分:模型知识、模型推理和模型行为。
“仅仅拥有一个创意模型是不够的,”Al Shikh 在上个月的一次采访中告诉 Digiday。——它就像人类一样,对吧?如果你们都拥有相同的图书馆,里面有很多书,那么每个图书馆都会有想法,但有趣的是我们不仅仅是用一个明确的主题创造所有的想法。因此,未来的计划是为我们所有的模型提供自我进化的功能,并将创造力放在首位。”
作家的更新也受益于该公司的合伙通过使用 NvidiaNIM– Nvidia 推理微服务的缩写 – 有助于简化和加速 AI 模型的部署和扩展各种企业特定用途。在某种程度上,NIM 在某种程度上起到了飞行控制器的作用,可以根据公司、其知识和所需的任务来帮助决定哪种人工智能模型以及何时使用它。
“有了工作流程,您就知道开始和步骤,”Shikh 说。– NIM 的概念非常具有未来感,我们可以实现这一目标,但您将需要所有这些模型。这就是我们构建特定领域模型的原因。您可以拥有三个、四个或五个特定模型,它们会根据客户行为进行自我演化。
解锁更具创造性思维的新方法可以为营销人员和其他人提供新的方法来寻找新想法,打破人工智能的回声室,并摆脱困扰许多人工智能输出的统一模式。作家认为零售商有可能使用 Palmyra Creative 进行个性化营销活动或增强型营销活动。忠诚度计划。这些模型可以帮助医疗保健提供商简化患者沟通,帮助金融公司创建更多教育工具,或者为 B2B 科技公司提供产品定位和完善技术文档的想法。
为了简洁明了,本次对话已被编辑。
Palmyra Creative 与其他模型有何不同?
我们更大的模型(例如金融或医疗)更关注我们所谓的知识。我们希望他们对于他们使用的每一种配方和每一种药物都是准确的。当您研究财务模型时,重点是核心推理和数学方程。行为也会改变。一般模型试图在这些[知识、推理和行为]之间取得平衡。
模型开发过程有何不同?
由于所有模型都具有相似的架构和相似的训练数据,因此您知道它只是找到权重的相似性以及该权重实际上的样子。我们决定做的实际上是采用与今天相同的训练数据,但我们在创意权重方面更具创意。我们训练了三个独立的模型,然后开始合并模型并在各层之间重新排列它们。然后发生的事情是您拥有任何其他模型中都不存在的独特关系。我们还发现该模型具有有趣的行为 - 该模型实际上可以向后推,并且不遵循其他人的传统路径,因为权重对于模型本身来说非常独特。我们称之为层之间的动态合并。
合并模型并不是一个新想法,但新的是技术本身和技术的利用。这里的不同之处在于,我们在它们之间分割模型,并且我们有一种特定的方法来确保它们之间的关系不会被破坏,这样你就不会最终得到胡言乱语的输出或奇怪的幻觉。最终的幻觉和创造力之间只有一线之隔。
让我想起创造力是如何经常在事实与虚构之间模糊的界限中产生的。
百分之一百。但我们必须对其进行定义,尤其是针对企业客户。我们最终想说的是,我们希望模型说任何它想说的,但我们需要模型小心一件事,我们称之为声明。“让我给你一个疯狂的想法”和看似未经证实的主张之间是有区别的。我们围绕所谓的受控声明做了很多工作。我们没有[模型]的真相来源,因为我们不能将维基百科等视为真相来源,不是吗?它有很多随机的东西。我们不能认为来自地球上每个政府的每件事都是真相的来源。但我们决定说保持模型的创造性,但不声明声明。
当幻觉必须证明自己的合理性时,它往往会带来更多的可解释性问题。如果不需要验证声明,这可能不是一个问题吗?
确切地。我们决定从根源入手,控制主张……[巴尔米拉]创意模式更多的是关于行为,而不是知识。我们认为企业会喜欢这个创造性的模型来编写案例研究或寻找新的用例或编写更多关于如何采用他们的产品以及如何在没有听起来像人工智能的情况下解释它的创意故事。但控制索赔是最大的部分。就像你说的,如果你没有主张,你就不必解释。
您如何指导模型何时应该发展或具有创造性,何时应该保持一致?
我们从初夏就开始致力于此。如果我们能让这些模型更像人类一样思考会怎么样?如果模型能够反思、旋转和记忆呢?基本上,我们能让它们在训练集之外开始实时工作吗?今天的所有模型仍然停留在训练数据上——如果没有训练数据,它真的很难让它做任何事情。这就是我们所说的自我进化。自我进化模型意味着您不需要教它们。该模型将实时更新他们的体重。模型实际上会反映出来。而模型本身其实可以保证信息。
举一个不好的例子:如果我说我的名字是 Waseem,并且我是美国总统,那么该模型就会足够聪明,知道“也许你的名字是 Waseem,但你不是”美国总统。这个东西非常重要,这意味着如果你更多地使用它,模型将获得更多的控制和更多的知识。它的级别更高,需要花费大量时间来解释,但它是标准变压器设计,具有称为“内存”的新功能。对于神经网络内的每一层,其旁边都有记忆层。所以你实际上可以与它交谈并看到它的变化。
因为模型基本上不会犯同样的错误两次,因为我们知道错误的答案。它会记住错误的[一个],并且下次我们考虑这个问题时会尝试不同的方法。我喜欢告诉我的团队,大多数人(不是所有人)都会从错误中吸取教训,并且我们不会两次犯同样的错误。
提示和产品 – 人工智能相关新闻和公告 本星期
来自 Digiday 的人工智能故事
https://digiday.com/?p=564480