14-43 剑和诗人17 – ActiveRAG之主动学习

14-43 剑和诗人17 - ActiveRAG之主动学习

大型语言模型 (LLM) 的出现开启了对话式 AI 的新时代。这些模型可以生成非常像人类的文本,并且比以往更好地进行对话。然而,它们在仅依赖预训练知识方面仍然面临限制。为了提高推理能力和准确性,LLM 需要能够整合外部知识。

检索增强生成 (RAG) 已成为一种利用外部来源的知识增强 LLM 的解决方案。RAG 将提取相关知识段落的检索器模块与神经生成器相结合,以根据检索到的上下文生成答案。这允许结合 LLM 固有知识之外的事实、概念和关系。尽管前景光明,但 RAG 面临着影响整体答案质量的挑战。

让我们介绍ActiveRAG,它是 RAG 框架的增强版,旨在应对这些挑战。我们将讨论 ActiveRAG 的动机、方法和结果。通过积极构建知识并将其紧密集成到 LLM 自身的认知中,ActiveRAG 与标准 RAG 相比实现了更高的准确性和解释连贯性。

积极知识建构的必要性

标准 RAG 的一个关键限制是其集成外部知识的被动方法。检索器模块提取可能相关的段落,并将其与输入查询连接起来。然后,这种上下文混合会调节 LLM 以生成答案。

然而,仅仅提供额外的背景并不能确保与 LLM 的内在知识紧密结合。该模型将检索到的段落视为松散的事实参考,而不是需要主动理解和拼凑的知识。这体现在几个方面:

  • 知识噪音:检索到的段落经常包含无关事实或关系,对回答特定查询没有用处。这会增加 LLM 的信噪比,嘈杂的无关知识会损害答案质量。
  • 知识脱节:即使与查询相关的上下文也常常与 LLM 现有的知识和认知缺乏连贯的联系。如果没有明确的联系,整合就会让人感觉脱节,而不是统一的解释流程。
  • 被动保存:由于对检索到的知识理解程度很低,LLM 被动保存上下文,没有进行更全面的评估或与自己的知识储备进行协调。结果是碎片化的理解,而不是混合的理解。

此外,RAG 的被动方法忽略了建构主义的关键原则,建构主义是一种学习理论,认为知识是由学习者主动构建的,而不是被动接收的。人类通过将新信息与现有结构联系起来、建立新的心理模型、通过矛盾进行推理以及调和冲突来构建知识。RAG 放弃了这些对于深度理解至关重要的建构。

ActiveRAG 简介

为了解决这些差距,ActiveRAG 是一种增强功能,可将主动知识构建注入 RAG。关键原则是:

  • 知识是主动积累的,而不是被动掌握的
  • 将外部知识与 LLM 的内在认知紧密结合
  • 通过评估周期协调和完善知识

基于这些原则,ActiveRAG 实现了包括检索、知识构建和答案生成的三阶段流程。

知识检索

与 RAG 类似,第一阶段使用密集向量相似度检索与查询可能相关的段落。关键区别在于检索较小的知识“”(1-3 个句子)而不是较长的段落。这可以过滤噪音并增强检索到的上下文的针对性。

知识建构

第二阶段利用检索到的块主动构建知识。四个子组件发挥独特的建构主义功能:

  • 语义关联——基于语义相关性将检索到的知识块与现有知识结构联系起来。这可以在现有的认知框架内吸收新信息。
  • 认知锚定——如果检索到的信息与现有知识的语义相关性较低,则建立新的知识参考框架。这扩展了认知边界。
  • 逻辑推理——通过从检索到的内容中得出结论来推断新知识。这建立了解决问题的逻辑链。
  • 认知一致性——识别检索到的组块与现有知识之间的冲突。然后执行解决以完善理解。这可以调和不一致之处。

这些组成部分共同模仿了人类的建构主义:将新知识与旧知识联系起来,形成新的心理模型,通过问题进行逻辑推理,并协调相互冲突的信息。

认知纽带

最后阶段将构建的知识重新整合到 LLM 的内在认知中。首先,LLM 根据其现有知识为查询生成初始思维流。接下来,构建的外部知识会动态地注入到这个思维流中以完善理解。

我们称之为“认知纽带”——来自外部来源的构建知识与 LLM 的内在认知的交集。标准 RAG 中的知识脱节,缺乏这种紧密的整合。

结果

与基线 RAG 相比,在一系列问答任务上对 ActiveRAG 进行了评估。一些关键结果:

  • ActiveRAG 通过减少知识噪音和增强推理能力,将答案准确率提高了约 5%。
  • ActiveRAG 的解释连贯性评级更高,表明检索到的知识与内在认知之间的结合更紧密。
  • 由于额外的知识构建,延迟增加了约 15%,但抵消了更高的准确度提升。

在法学硕士的认知过程中积极构建和吸收知识可以获得更精确的答案和统一的解释流程。

局限性和未来工作

ActiveRAG 虽然前景光明,但在未来的工作中仍存在一些需要解决的限制:

  • 多级流水线会增加延迟,因为知识构建比标准 RAG 增加了 2-3 倍的计算量。这可以通过模型提炼和优化来缓解。
  • 构建知识需要多次查询 LLM,这会增加成本。缓存构建的知识有助于最大限度地减少冗余生成。
  • 在模拟人类的知识构建方面仍然存在差距,例如进行类比、从示例中学习以及分层构建知识。

未来的工作可以增强 ActiveRAG 的建构主义功能,以进一步缩小与人类认知的差距。此外,建构组件与核心 LLM 之间的更紧密耦合可以增强流动性。

ActiveRAG 以其主动的方法表明,仅仅检索知识是不够的。在 LLM 的内在认知中构建、协调和积极整合知识可以带来更准确、更连贯的结果。虽然要达到人类水平的理解还有很长的路要走,但 ActiveRAG 为解锁隐藏在外部知识资源中的宝藏迈出了宝贵的一步。

结论

最后,标准 RAG 为利用外部知识增强 LLM 提供了一种有用但不完整的解决方案。其被动方法导致理解支离破碎。ActiveRAG 引入了主动知识构建和集成来解决这些差距。通过将构建的知识与内在认知紧密联系起来,ActiveRAG 实现了卓越的准确性和解释连贯性。

在神经网络中模拟人类建构主义学习方面仍有许多前沿领域需要探索。但ActiveRAG 提供了一个前进的学习蓝图— — 它不将知识视为静态持有的外部资产,而将其视为一种需要构建、塑造和编织成理解系统的活生生的力量。凭借这种积极的精神,人类知识中蕴藏的宝藏不仅更容易获得,而且成为触及认知本身本质的丰富源泉。

14-43 剑和诗人17 - ActiveRAG之主动学习

RA/SD 衍生者AI训练营。发布者:chris,转载请注明出处:https://www.shxcj.com/archives/3706

Like (0)
Previous 2024-07-07 7:40 上午
Next 2024-07-08 9:53 上午

相关推荐

发表回复

Please Login to Comment
本文授权以下站点有原版访问授权 https://www.shxcj.com https://www.2img.ai https://www.2video.cn