Skip to content

Navigation Menu

Sign in
Appearance settings

Search code, repositories, users, issues, pull requests...

Provide feedback

We read every piece of feedback, and take your input very seriously.

Saved searches

Use saved searches to filter your results more quickly

Sign up
Appearance settings

Commit 978a36d

Browse files
update
1 parent 33e3471 commit 978a36d

7 files changed

+872
-12
lines changed

‎docs/.vuepress/config.js

Lines changed: 35 additions & 12 deletions
Original file line numberDiff line numberDiff line change
@@ -751,9 +751,13 @@ module.exports = {
751751
link: '/md/AI/mcp/mcp-fad-or-fixture'
752752
},
753753
{
754-
text: '大模型平台和Prompt工程',
754+
text: '大模型发展',
755755
link: '/md/AI/llm/GPTs'
756756
},
757+
{
758+
text: 'Prompt工程',
759+
link: '/md/AI/prompt/01-Prompt网站'
760+
},
757761
{
758762
text: 'AI Agent',
759763
link: '/md/AI/agent/changelog-cursor'
@@ -1832,7 +1836,7 @@ module.exports = {
18321836
"03-BASE 还能撑多久?强一致性才是事务处理的终极奥义!",
18331837
"18-分布式数据库的HTAP能统一OLTP和 OLAP吗?",
18341838
"21-查询执行引擎:加速聚合计算加速",
1835-
1839+
"bank-distributed-database-selection",
18361840
]
18371841
}],
18381842

@@ -2098,6 +2102,14 @@ module.exports = {
20982102
children: [
20992103
"00-macOS和Linux安装和管理多个Python版本",
21002104
]
2105+
},
2106+
{
2107+
title: "FAQ",
2108+
collapsable: false,
2109+
sidebarDepth: 0,
2110+
children: [
2111+
"Installing packages into 'Python 3.9' requires administrator privileges",
2112+
]
21012113
},],
21022114

21032115
"/md/AI/llm/": [{
@@ -2113,14 +2125,23 @@ module.exports = {
21132125
"contextual-retrieval",
21142126
"lm-studio-transform-mac-into-ai-tool",
21152127
"navigating-llm-deployment-tips-tricks-and-techniques",
2116-
"qwen-QwQ",
21172128
"only-ai-flow-can-do",
21182129
"chatgpt-canva",
21192130
"llm-reasoning-limitations",
21202131
"making-an-llm-that-sees-and-reasons",
21212132
"lmstudio-local-llm-call",
21222133
]
21232134
},
2135+
{
2136+
title: "Qwen",
2137+
collapsable: false,
2138+
sidebarDepth: 0,
2139+
children: [
2140+
"qwen-QwQ",
2141+
"qwen3",
2142+
]
2143+
},
2144+
21242145
{
21252146
title: "DeepSeek",
21262147
collapsable: false,
@@ -2149,15 +2170,6 @@ module.exports = {
21492170
"llama-4-multimodal-intelligence",
21502171
]
21512172
},
2152-
{
2153-
title: "Prompt工程",
2154-
collapsable: false,
2155-
sidebarDepth: 0,
2156-
children: [
2157-
"01-Prompt网站",
2158-
"02-常用Prompt",
2159-
]
2160-
},
21612173

21622174
{
21632175
title: "Dify",
@@ -2310,6 +2322,16 @@ module.exports = {
23102322
]
23112323
},],
23122324

2325+
"/md/AI/prompt/": [{
2326+
title: "Prompt工程",
2327+
collapsable: false,
2328+
sidebarDepth: 0,
2329+
children: [
2330+
"01-Prompt网站",
2331+
"02-常用Prompt",
2332+
]
2333+
}, ,],
2334+
23132335
"/md/AI/": [{
23142336
title: "LangChain",
23152337
collapsable: false,
@@ -2334,6 +2356,7 @@ module.exports = {
23342356
"02-相似性检索的关键 - Embedding",
23352357
"03-core-of-rag-result-retrieval-and-reordering",
23362358
"04-prompt-helping-llm-understand-knowledge",
2359+
"2025-future-rag-trends-four-technologies",
23372360
]
23382361
},
23392362
{
Lines changed: 119 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,119 @@
1+
# 2025 及未来 RAG 趋势:深入解析四大创新技术
2+
3+
## 0 前言
4+
5+
RAG是AIGC可靠性和准确性的一项关键技术。不过,RAG 也存在一些局限,如上下文处理、成本控制及面对超大数据集时的挑战。
6+
7+
因此,过去一年里,业界出现了许多新方法,试图弥补 RAG 的不足。
8+
9+
下面深入了解 2025 年RAG领域的一些最新动态。
10+
11+
## 1 RAG工作原理及其局限性
12+
13+
RAG是一种结合LLM与外部知识源的技术。具体做法是,把文档或数据库等外部知识源进行分块、向量化处理,生成所谓的向量嵌入(vector embeddings),并存储在向量数据库或其他存储系统中。当用户输入提示词时,系统可以实时检索这些数据,从而为 LLM 提供更准确、更新或更具上下文的信息。
14+
15+
虽然强大,但不少局限,如:
16+
17+
- 检索效果大程度取决于数据本身质量和更新频率
18+
- 面对复杂查询或超大数据集时,传统的 RAG(有时也被称为"原始 RAG")容易出现信息混淆或检索出的内容缺乏足够的细腻度
19+
20+
## 2 校正型 RAG(Corrective RAG)
21+
22+
近年来非常受欢迎的一种新方法。
23+
24+
### 2.1 核心思想
25+
26+
在检索过程中引入评估步骤,加入所谓的"自我反思"或"自我评分"机制。评估器会检查检索结果的准确性,如果达不到设定标准,系统就会重新检索(有时还会扩展到网页搜索)。这一机制通常由一个轻量级检索评估器来实现,用来衡量检索结果的相关性。
27+
28+
### 2.2 解决啥问题?
29+
30+
校正型 RAG 主要是为了应对检索不准确的问题。例如,当数据集中存在语义相近的信息时,容易混淆,而加入评估步骤可以大大提高检索结果的可靠性。
31+
32+
### 2.3 局限性
33+
34+
不过,校正型 RAG 也存在一些弊端。首先,引入评估环节不可避免地增加了延迟,因为需要额外的计算资源,可能会影响整体性能(尤其是在面向客户的实时应用中)。其次,它会增加 AI 流水线的复杂性,降低团队的开发效率,一旦出现问题,排查和修复也更困难。
35+
36+
此外,校正型 RAG 无法解决数据本身的问题——如果数据不准确、过时或分块不合理,仍然会影响最终效果。
37+
38+
### 2.4 适用场景
39+
40+
如需在准确性和实时数据集成之间取得平衡,这是不错选择。
41+
42+
## 3 自我反思型 RAG(Self-RAG)
43+
44+
类似校正型RAG ,也引入"自我反思"机制,但走得更远。除了评估检索结果本身之外,自我反思型 RAG 还会在是否需要检索以及如何检索方面进行更深层次的反思,并能通过反复训练不断优化。
45+
46+
它采用三个模型协同工作:检索器、评审器和生成器。通过这种"三位一体"的架构,自我反思型 RAG 可以生成所谓的"反思 token"。这些 token 让语言模型在推理阶段可以根据不同任务要求调整行为。
47+
48+
一句话,通过反馈循环不断强化自己的检索决策,最终提高整体性能。
49+
50+
### 3.1 解决啥问题?
51+
52+
和校正型 RAG 一样,自我反思型 RAG 能有效提高检索准确率。而且由于具备自我学习能力,随着时间推移,表现还能不断提升。
53+
54+
### 3.2 局限性
55+
56+
它的问题和校正型 RAG 类似,但也有自己的独特挑战。比如,自我反思机制有时会导致模型"想太多",结果输出的信息与实际数据并不吻合。
57+
58+
此外,训练过程中用于反思的 token 可能会影响最终生成内容的质量或流畅度。因此,使用时需要根据实际需求权衡利弊。
59+
60+
### 3.3 适用场景
61+
62+
如果你需要模型具备较强的适应性,尤其是处理开放领域问题或复杂推理任务,自我反思型 RAG 是一个非常合适的选择。
63+
64+
## 4 RAG 融合(RAG-fusion)
65+
66+
思路与校正型 RAG、自我反思型 RAG 不同。前两者专注于"自我反思",而 RAG-fusion 则是将多个检索到的资源(如文档、维基条目等)融合成一个批次,通过互惠排名融合(RRF)算法处理,扩展模型能够检索到的信息范围和细节。
67+
68+
### 4.1 解决啥问题?
69+
70+
RAG-fusion 主要提升了模型处理复杂背景和细节问题的能力。它能让模型给出更加连贯、详细的回答,尤其是在面对困难或多层次提示时表现更好。
71+
72+
### 4.2 局限性
73+
74+
不过,RAG-fusion 会显著增加 LLM 架构和流水线的复杂度(以及成本)。额外的步骤还可能引发性能下降等问题。
75+
76+
### 4.3 适用场景
77+
78+
如果你在客服等需要细致、连贯输出的场景中工作,RAG-fusion 是非常值得考虑的方法。
79+
80+
## 5 快速图谱 RAG(Fast GraphRAG)
81+
82+
[Fast GraphRAG](https://www.thoughtworks.com/radar/languages-and-frameworks/fastgraphrag)[GraphRAG](https://www.thoughtworks.com/radar/techniques/graphrag) 的开源实现。GraphRAG 并不是简单地检索数据块,而是将数据抽取后构建成知识图谱,使得 LLM 能够像阅读地图一样理解和检索数据,提升了检索的深度和细致程度。
83+
84+
Fast GraphRAG 在此基础上引入了 PageRank(谷歌创始人 Larry Page 和 Sergey Brin 开发的算法),帮助系统更快速地找出知识图谱中最相关的信息。
85+
86+
### 5.1 解决啥问题?
87+
88+
Fast GraphRAG 特别擅长处理数据理解和细腻度问题。利用知识图谱,让 AI 系统对数据有更丰富的"理解"。此外,它比传统 RAG 更适合处理大规模动态数据集,能够更好应对数据更新或变化。
89+
90+
而且,Fast GraphRAG 相比传统 GraphRAG 成本更低、速度更快(据说能便宜 6 倍左右)。
91+
92+
### 5.2 局限性
93+
94+
不过,Fast GraphRAG 相比直接基于向量数据库的 RAG 技术还是慢一些,而且系统复杂度更高,对于很多简单场景来说,可能得不偿失。
95+
96+
### 5.3 适用场景
97+
98+
如果你面对的是超大数据集,或者对检索准确性要求极高,Fast GraphRAG 是一个非常值得考虑的选择。
99+
100+
## 6 RAG的未来
101+
102+
上面提到的方法并不全面,目前还有很多新技术正在不断涌现。
103+
104+
比如,有些团队正在探索多模态 RAG,不仅检索文本,还能处理图像、表格、甚至音频数据。
105+
106+
还有一种更彻底的替代方案叫缓存增强生成(Cache-augmented Generation),通过预加载数据到模型上下文窗口,省去了实时检索步骤,提升模型响应速度。虽然这种方式未必能提高准确性和输出质量,但对于提高效率很有帮助。
107+
108+
## 7 总结
109+
110+
可见,RAG 领域正在迅速发展。虽然生成式 AI 和大型语言模型常常成为媒体关注的焦点,但真正决定 AI 产品效果的,往往是检索技术背后的创新和实验。
111+
112+
当然,每种方法都有其优缺点,必须在复杂性、速度和成本之间权衡取舍。
113+
114+
**最重要的是,根据你的具体应用场景明确需求,认真评估不同方案,做出理性、有效的选择。**
115+
116+
参考:
117+
118+
- https://selfrag.github.io/
119+
- https://www.thoughtworks.com/radar

0 commit comments

Comments
(0)

AltStyle によって変換されたページ (->オリジナル) /