RAG
- 重要时间点:
- 应用工程拐点(OpenAI DevDay,官方发布 Retrieval 工具能力):2023-11-06
- 学术起点(RAG 论文 arXiv v1):2020-05-22
- 官方资料:
- 说明:本条
date采用“应用工程拐点时间”,学术起点时间放在正文补充。
它是什么
RAG(Retrieval-Augmented Generation)是一种把外部检索模块与生成模型联合起来的架构。
原始论文给出的核心思想是:在生成时不仅依赖模型参数中的知识,还通过检索器从外部文档库拉取相关内容,再由生成器基于检索结果产出答案,从而组合“参数化记忆 + 非参数化记忆”。
它把 AI 应用工程从哪一步推进到了哪一步
它把知识密集型任务从“只靠模型内部记忆回答”推进到了“基于可更新知识源回答”。
在工程层面,这意味着系统可以通过更新索引和文档库来改变知识能力,而不必每次都依赖模型再训练。这一点直接影响了后续企业内部知识库问答、检索问答助手和大量知识增强型 Agent 的实现路径。
现在看,它处于什么阶段
目前我把 RAG 标记为 mainstream。
原因是“检索增强”已从研究概念变成工程默认选项:在需要事实准确性、可追溯来源和可更新知识的场景里,RAG 已成为最常见的系统设计基线之一。
它可能替代什么
它可能替代一部分“只靠长 prompt 塞上下文”的知识问答实现方式,以及部分“把全部新知识都压进微调”的高成本路径。
在很多业务场景中,检索层与索引更新比频繁重训更可控,也更容易做来源追踪。
它可能被什么替代
未来它可能被更紧耦合的“长期记忆 + 检索 + 工具执行 + 反馈学习”系统吸收,而不是被完全淘汰。
换句话说,RAG 更可能演化为更大系统中的标准子能力:与路由、缓存、重排序、工具调用和验证机制一起构成完整的知识执行栈。