《2025年的RAGFlow:多模态、上下文记忆、推理.pdf》由会员分享,可在线阅读,更多相关《2025年的RAGFlow:多模态、上下文记忆、推理.pdf(38页珍藏版)》请在三个皮匠报告上搜索。
1、 2025年的RAGFlow演讲人:张颖峰多模态、上下文记忆、推理推理篇上下文和记忆多模态RAG总结推理篇推理篇Nave RAG+RLM=Reasoning?SearchQuestionReadReasoningAnswer需要根据内部数据生成推理链Agentic ReasoningReasoningQuestionSub questionSearchAnswerReason in DocumentsSub questionSub questionSearchSearchIteration系列Agentic Reasoning Search o1 牛津 Agentic Reasoning 微软
2、 PIKE-RAG LevelRAG 系列 Deep ResearchAgentic ReasoningRAGFlowReasoningQuestionSub questionWeb SearchAnswerSub questionSub questionRAGGraphRAGIterationAgentic ReasoningDemoAgentic ReasoningDemo改进MCTSQuestion ReasoningSub QuestionReasoningAnswerSub QuestionReasoningAnswerRetrievalAnswerRetrievalSummaryR
3、etrievalSummarySummary核心与挑战 推理的核心迭代式反思 只靠 LLM 好么LLM 做 Plan 很多缺点 如何终止迭代?Agent实现的2种构型 依靠 LLM 评估推理链质量 依靠 RL微调,通过奖励函数学习到跟环境交互的正确姿势 多观察,多行动,少思考Agentic 的价值RAG+RL Search R1 R1 Searcher ReSearch DeepResearcherQo1o2o3Reward ModelReference LLMr1r2r3Group ComputationA1A2A3KL生成搜索查询和推理步骤生成答案和真实答案一致生成答案符合推理格式Retr
4、ievalPolicy LLMRollouts上下文和记忆上下文和记忆Memory 与 Agent检索提问Reasoner回答内容Memory搜索思考输出Memory 与 RAG 的区别和联系 动态记忆管理记忆的衰减与淘汰 Agent 配套MemoryRetrievalPlanReflectActAgent Memory 检索差别时间/权重/相关度共享与隔离任务状态跟踪上下文保持任务依赖管理Memory 的本质LLM无限上下文Reasoning过滤混合搜索重排序查询重写辅助推理GraphRAGRAPTORContextual Retrieval本质是一种注意力实现Contextual Memo
5、ry 和 Long-term Memory外部知识交互信息记忆来源记忆格式文本参数记忆访问实时搜索与过滤Attention 增强互动:保持上下文,提供更相关和个性化的响应 改进推理:访问以前得出的结论,使模型执行复杂推理而无需重新处理输入数据 促进学习:适应用户个性化偏好Memory的多种实现手段TextMemory APIFull Text IndexVector IndexGraph IndexReal Time Index DatabaseEmbedding ServiceText工作记忆(KV Cache)LLMTransformerIndex显式记忆(KV Cache)工作记忆(KV
6、 Cache)LLMTransformerAttention Engine-ITokenTokenTokenTokenAttention Score LM HeadGenerationEntropyLogits(Prediction scores)+RetrievalAttention Engine-IIQuery AttentionKVAttentionIndexSparse Attention上下文记忆MCP ServerRemote ResourceInternetMCP ServerLocal ResourceLocal MachineMCP S