对人工智能模式的需求
在构建新事物时,我们都会采用一些久经考验的方法、方式和模式。
对于软件工程领域的人来说,这种说法非常正确,但对于生成式人工智能和人工智能本身来说,情况可能并非如此。
对于生成式人工智能等新兴技术,我们缺乏完善的记录模式来为我们的解决方案奠定基础。
在这里,我根据对 LLM 的无数实际生产实施的评估,分享了一些生成式 AI 的方法和模式。这些模式的目标是帮助缓解和克服生成式 AI 实施的一些挑战,例如成本、延迟和幻觉。
模式列表
- 分层缓存策略带来微调
- 为专家小组提供多路复用 AI 代理
- 针对多项任务对法学硕士进行微调
- 基于规则和生成规则的混合
- 将知识图谱与法学硕士 (LLM) 结合使用
- 生成式人工智能代理群
- 具有可组合性的模块化整体式 LLM 方法
- 法学硕士的记忆认知方法
- 红蓝队双模型评估
1)分层缓存策略带来微调
在向大型语言模型引入缓存策略和服务时,我们需要解决成本、冗余和训练数据的多种因素。
通过缓存这些初始结果,系统可以在后续查询中更快地提供答案,从而提高效率。一旦我们拥有足够的数据,微调层就会发挥作用,这些早期交互的反馈将用于改进更专业的模型。
该专门模型不仅简化了流程,而且还可以根据特定任务定制人工智能的专业知识,使其在精确度和适应性至关重要的环境中非常有效,例如客户服务或个性化内容创建。
对于入门来说,有预先构建的服务,例如GPTCache,或者使用常见的缓存数据库(例如Redis、Apache Cassandra、Memcache d)来构建自己的服务。在向组合中添加其他服务时,请务必监视并测量延迟。
2)为专家小组提供多路复用人工智能代理
想象一个生态系统,其中多个面向特定任务的生成式 AI 模型(“代理”)并行工作以解决查询,每个模型都是其领域内的专家。这种多路复用策略可以实现一组不同的响应,然后将它们集成以提供全面的答案。
这种设置非常适合解决复杂问题的情况,其中问题的不同方面需要不同的专业知识,就像一个专家团队,每个专家负责解决更大问题的一个方面。
较大的模型(例如 GPT-4)用于理解上下文,并将其分解为特定任务或信息请求,然后传递给较小的代理。代理可以是较小的语言模型(例如Phi-2或TinyLlama),这些模型已针对特定任务进行训练,可以使用特定工具,也可以是具有特定个性、上下文提示和函数调用的通用模型(例如 GPT、Llama)。
3)针对多项任务对法学硕士进行微调
在这里,我们同时在多个任务上微调大型语言模型,而不是在单个任务上微调。这种方法可以促进跨不同领域的知识和技能的稳健迁移,从而增强模型的多功能性。
这种多任务学习对于需要高度熟练地处理各种任务的平台尤其有用,例如虚拟助手或人工智能研究工具。这可能会简化复杂领域的训练和测试工作流程。
一些用于训练 LLM 的资源和包包括DeepSpeed ,以及Hugging Face 的 Transformer 库上的训练功能。
4)基于规则和生成规则的混合
许多现有的业务系统和组织应用程序仍然以规则为基础。通过将生成性与基于规则的逻辑的结构化精度相融合,此模式旨在提供既有创意又合规的解决方案。
对于输出必须遵守严格标准或法规的行业来说,这是一种强大的策略,可确保 AI 保持在所需参数的范围内,同时仍能创新和参与。一个很好的例子是为电话呼叫 IVR 系统或基于规则的传统(非 LLMS)聊天机器人生成意图和消息流。
5)将知识图谱与法学硕士结合起来
将知识图谱与生成式人工智能模型相结合,赋予了它们以事实为导向的超能力,使得输出不仅符合情境,而且更符合事实。
这种方法对于那些真实性和准确性不容置疑的应用来说至关重要,例如在教育内容创作、医疗建议或任何错误信息可能造成严重后果的领域。
知识图谱和图本体(图的概念集)允许将复杂的主题或组织问题分解为结构化格式,以帮助建立具有深度上下文的大型语言模型。您还可以使用语言模型以 JSON 或 RDF 等格式生成本体,我创建的示例提示可供您使用。
可用于知识图谱的服务包括图形数据库服务,例如ArangoDB、Amazon Neptune、Azure Cosmos DB和Neo4j。还有更广泛的数据集和服务可用于访问更广泛的知识图谱,包括Google Enterprise Knowledge Graph API、PyKEEN 数据集和Wikidata。
6)人工智能集群
该模型从自然群体和群体中汲取灵感,采用大量人工智能代理共同解决问题,每个代理都贡献独特的视角。
由此产生的聚合输出反映了一种集体智慧,超越了任何单个代理所能实现的水平。这种模式在需要大量创造性解决方案或浏览复杂数据集的场景中特别有利。
例如,从多位“专家”的角度审查研究论文,或同时评估从欺诈到优惠等多种用例的客户互动。我们将这些集体“代理”结合起来,将所有输入结合在一起。对于高容量群,您可以考虑部署Apache Kafka等消息服务来处理代理和服务之间的消息。
7)具有可组合性的模块化整体式 LLM 方法
这种设计强调适应性,采用模块化人工智能系统,可以动态重新配置自身以实现最佳任务性能。它就像一把瑞士军刀,每个模块都可以根据需要选择和激活,这对于需要针对不同客户互动或产品需求量身定制解决方案的企业来说非常有效。
您可以部署使用各种自主代理框架和架构来开发每个代理及其工具。示例框架包括CrewAI、Langchain、Microsoft Autogen和SuperAGI。
对于销售模块化单体来说,这可以是专注于潜在客户开发的代理、处理预订的代理、负责生成消息的代理和更新数据库的代理。将来,随着专业 AI 公司提供特定服务,您可以将模块换成外部或第三方服务,以完成给定的一组任务或特定领域的问题。
8)法学硕士的记忆认知方法
这种方法为人工智能引入了类似人类记忆的元素,使模型能够回忆并在以前的交互基础上做出更细致入微的反应。
它对于持续对话或学习场景特别有用,因为人工智能会随着时间的推移形成更深刻的理解,就像专用的个人助理或自适应学习平台一样。记忆认知方法可以通过总结和随着时间的推移将关键事件和讨论存储到矢量数据库中来开发。
为了降低摘要计算量,您可以通过较小的 NLP 库(如spaCy或BART 语言模型,如果处理大量数据)来利用汇总。使用的数据库是基于向量的,在提示阶段进行检索以检查短期记忆,使用相似性搜索来定位关键“事实”。对于那些对可行的解决方案感兴趣的人,有一个遵循类似模式的开源解决方案,称为MemGPT。
9)红蓝队双模型评估
在红蓝团队评估模型中,一个 AI 生成内容,另一个 AI 对其进行严格评估,类似于严格的同行评审过程。这种双模型设置非常适合质量控制,使其非常适用于可信度和准确性至关重要的内容生成平台,例如新闻聚合或教育材料制作。
该方法可以用微调模型取代复杂任务的部分人工反馈,以模拟人工审查过程并改进评估复杂语言场景和输出的结果。
总结
这些生成式人工智能的设计模式不仅仅是模板,更是未来智能系统发展所依赖的框架。随着我们不断探索和创新,很明显,我们选择的架构不仅会定义我们创建的人工智能的功能,还会定义其身份。
这份名单绝不是最终名单,随着生成式人工智能的模式和用例的扩展,我们将看到这个领域不断发展。本文的灵感来自Tomasz Tunguz 发布的人工智能设计模式。
RA/SD 衍生者AI训练营。发布者:chris,转载请注明出处:https://www.shxcj.com/archives/2727