打开网易新闻 查看更多图片

在讨论AI大模型时,我们经常能看到有个关键词常和它一同出现。那个关键词就是——RAG。

可到底什么是RAG?它有哪些特点?在大模型应用中扮演了怎样的角色?

如果你也好奇,下面司普科技1号解说员小司带你一起了解~

什么是RAG?

从字面来看,RAG是Retrieval Augmented Generation的缩写,翻译过来,就是检索增强生成。事实上,RAG也的确结合了“检索器”和“生成器”两大功能组件,用来处理复杂的信息查询和生成任务。

不过RAG很少单独行动,一般在大语言模型(LLM)原始数据集的基础上,通过加入外部数据(如本地知识库、企业信息库等)来对AI模型的“检索”和“生成”能力进行加持,以提高信息查询和生成质量。

这使得RAG成了大模型时代最为流行的人工智能技术之一,也被视为大模型信息输出性能强化的有力助攻。

RAG有何特点?

从RAG的运作模式看,它具有以下几大特点:

1.RAG依赖大语言模型来强化信息检索和输出,单独使用,能力受限。

2.RAG能与外部数据无缝集成,较好地解决通用大模型在垂直、专业领域的知识短板。

3.一般情况下,RAG对接的私有数据库不参与大模型数据集训练,能在改善模型性能的同时,更好地保证数据隐私和安全。

4.同样是RAG,展现的效果并不统一,很大程度上受模型性能、外挂数据质量、AI算法、检索系统等多方面的影响。

RAG检索增强生成如何实现?

了解完以上这些,也许有朋友好奇,RAG到底是怎么实现检索增强生成的?

关于这块,网上分享的技术帖有很多。简单概括下来,其实可以大致分为三步:

1.数据准备。
2.数据分块与模型嵌入。
3.数据管理与信息检索。

其中,数据准备主要在弥补通用大模型在数据时效性、特定领域知识储备等方面的不足,通过新增外部数据源,来强化RAG的技术能力。

现阶段RAG主要通过接入数据和非结构化数据的结构化来实现数据采集,数据经清洗、去重、脱敏、转换等环节后进入数据仓。

随着接入数据准备就绪,RAG 系统会将文本数据分割成简洁、有意义的小单元,再进行向量嵌入和建立索引,方便管理和后续执行。

当完成以上步骤,用户就能在检索时锁定上下文相关信息,并通过与大模型结合,进一步提高搜索和生成质量。

值得一提的是:虽然RAG能对大模型检索和生成的内容进行修正,但检索系统的性能,同样会影响实际效果。

为此,包括司普科技在内的大模型应用服务商选择融合全文检索、语义向量检索、知识图谱检索,来确保结果返回覆盖的最大化。

同时还通过实时溯源、联网搜索、矛盾引述等,提高检索与生成信度。

RAG与大模型有什么联系?

综合以上内容,我们能隐约知道:

1.RAG既是大语言模型(LLM)较为热门的应用开发架构,也是其在垂直领域的应用拓展。

它能在LLM强大功能的基础上,通过拓展访问特定领域数据库或内部知识库,以补足通用模型在垂直领域的知识短板。

2.在LLM的基础上,RAG能通过数据内循环,更好地解决数据来源问题。

增强搜索与生成功能的同时,能减少行业用户对数据私密性与安全性的顾虑。这也推动其成为各类大模型落地项目不可缺少的技术组件。

3.RAG的利用,能有效减少模型幻觉的发生,进一步提升大模型检索和生成性能。

因为训练成本相对较低,RAG目前已拓展到企业信息库建设、AI文档问答、业务培训、科研等场景,搭配AI agent,极大地加快了大模型的商业化进程。

为了提高RAG的智能化程度和应用价值,人们甚至在原来的检索增强生成体系的基础上,推出了Self-RAG(即自反思的检索增强生成方法),以进一步提升检索效率和大模型生成质量。这算是RAG的一大升级与进化了。

以上就是今天的分享,希望有用~

备注:首发司普科技,有参考gradientflow、CSDN等,仅做分享。