Agent的项目记录,方便后续持续更新与展示。
- Python
3.12+ - 包管理建议:
uv(也支持pip) - Docker / Docker Compose(用于启动 Milvus 依赖)
在项目根目录执行:
# 方式 A:推荐(uv)
uv sync
# 运行服务
uv run python backend/app.py
# 或
uv run uvicorn backend.app:app --host 0.0.0.0 --port 8000 --reload# 方式 B:pip
python -m venv .venv
source .venv/bin/activate
pip install -U pip
pip install -e .
# 运行服务
python backend/app.py
# 或
uvicorn backend.app:app --host 0.0.0.0 --port 8000 --reload在项目根目录新建 .env,可直接使用下面模板:
# ===== Model =====
ARK_API_KEY=your_ark_api_key
MODEL=your_model_name
BASE_URL=https://your-llm-endpoint/v1
# ===== 本地稠密向量(langchain_huggingface,默认 BAAI/bge-m3)=====
EMBEDDING_MODEL=BAAI/bge-m3
EMBEDDING_DEVICE=cpu
DENSE_EMBEDDING_DIM=1024
# ===== Rerank (可选,不配则自动降级) =====
RERANK_MODEL=your_rerank_model
RERANK_BINDING_HOST=https://your-rerank-host
RERANK_API_KEY=your_rerank_api_key
# ===== Milvus =====
MILVUS_HOST=127.0.0.1
MILVUS_PORT=19530
MILVUS_COLLECTION=embeddings_collection
# ===== Database / Cache =====
DATABASE_URL=postgresql+psycopg2://postgres:postgres@127.0.0.1:5432/langchain_app
REDIS_URL=redis://127.0.0.1:6379/0
# ===== Auth =====
JWT_SECRET_KEY=replace-with-strong-random-secret
ADMIN_INVITE_CODE=supermew-admin-2026
JWT_ALGORITHM=HS256
JWT_EXPIRE_MINUTES=1440
PASSWORD_PBKDF2_ROUNDS=310000
# ===== BM25 稀疏统计持久化(默认 data/bm25_state.json,可改路径)=====
# BM25_STATE_PATH=/path/to/bm25_state.json
# ===== Tools (可选)=====
AMAP_WEATHER_API=https://restapi.amap.com/v3/weather/weatherInfo
AMAP_API_KEY=your_amap_api_key
当前仓库的 docker-compose.yml 同时承载业务依赖与 Milvus 依赖:
- 业务依赖:
postgres、redis - 向量依赖:
etcd、minio、standalone、attu
# 启动向量库依赖
docker compose up -d
# 查看服务状态
docker compose ps
# 查看日志(可选)
docker compose logs -f standalone端口说明:
- PostgreSQL:
5432 - Redis:
6379 - Milvus:
19530 - Milvus 健康检查:
9091 - MinIO API:
9000 - MinIO Console:
9001 - Attu:
8080
在 Milvus 启动后,运行后端应用:
uv run uvicorn backend.app:app --host 0.0.0.0 --port 8000 --reload浏览器访问:
- 前端页面:
http://127.0.0.1:8000/ - API 文档:
http://127.0.0.1:8000/docs
- 核心能力:
- LangChain Agent + 自定义工具。
- 文档上传后执行三级滑动窗口分块,叶子分块向量化写入 Milvus,父级分块写入 PostgreSQL。
- 用户注册/登录、JWT 鉴权、基于角色的 RBAC 权限控制(admin/user)。
- 会话记忆与摘要,聊天与历史记录落地 PostgreSQL,并引入 Redis 缓存热点会话与父文档。
- 运行形态:FastAPI 后端 + 纯前端(Vue 3 CDN 单页)+ Milvus 向量库。
- 混合检索落地:稠密向量 + BM25 稀疏向量,Milvus Hybrid Search + RRF 排序,兼顾语义与词匹配。
- Jina Rerank 接入:Hybrid/Dense 召回后进行 API 级精排,支持返回
rerank_score并在前端可视化。 - 双向降级:稀疏生成或 Hybrid 调用失败时自动降级为纯稠密检索,提升稳定性。
- 流式输出(Streaming):后端基于
agent.astream(stream_mode="messages")逐 token 推送,前端 SSE + ReadableStream 实现打字机效果。 - 实时 RAG 过程可视化:检索过程在模型"思考中"阶段就开始展示,通过
asyncio.Queue+ 后台任务架构实现工具执行期间的实时推送。 - 回答终止功能:前端
AbortController+ 后端StreamingResponse支持用户随时中断正在生成的回答。 - 会话摘要记忆:自动摘要旧消息并注入系统提示,维持上下文且控制 token。
- 文档处理链路:上传 → 切分 → 稠密/稀疏向量同步生成 → Milvus 入库,支持重复上传自动清理旧 chunk。
- BM25 统计持久化:
词表 + 文档频次 df + 文档数 N落盘到data/bm25_state.json,入库时增量增加、删除/覆盖上传前按文件名从 Milvus 拉取 chunk 文本后增量扣减,与向量库同步;embedding_service在 API 与检索模块间单例共享。 - 三级分块 + Auto-merging:L1/L2/L3 三层滑窗切分;检索时优先召回 L3,满足阈值后自动合并到父块(L3->L2->L1)。
- Leaf-only 向量化存储:仅叶子分块写入 Milvus,父块写入 DocStore,减少向量冗余并保留上下文聚合能力。
- 工具可扩展:天气查询示例 + 知识库检索,便于按需增添第三方 API 或企业数据源。
- RAG 过程可观测:记录检索、评分、重写与来源信息,前端可展开查看每一步细节。
- 查询重写体系:Step-Back 与 HyDE 两种扩展方式 + 路由选择,必要时触发重写检索。
- 相关性评分门控:基于结构化输出的
grade_documents判断是否需要重写检索。 - 实时思考链路展示:通过
asyncio事件循环穿透技术,实现 Agent 在执行 RAG、评分、重写等同步工具时,实时向前端推送思考步骤(Searching -> Grading -> Rewriting),彻底解决"静默思考"问题。
- 先做文档结构解析,按文档结构做粗拆分,再用递归字符分块兜底,保证打的主题单元不被拆分(2000-3000token);再用语义分块做精细化拆分,控制单块大小(512-1024token)
- 代码块、表格、图片特殊处理
- 实现 ParentDocument/Auto-merging Retriever 策略 --done
- BM25的k1和b新增参数扫描
- RRF额外做BM25和dense的权重,可以通过AB test确定
- 做一个小型标注集比较dense only、sparse only、hybrid、hybrid + rerank的gold chunk
- 子问题分解(CoT、专门的分解小模型、判断分几个子问题)
- 多文档Refine(一次拼接、串行Refine)
- 多文档冲突处理(A文档说X,B文档说非X),回答中显式输出“来源存在冲突”
- 向量嵌入:新增多模态 embedding 能力
- 搭建 RAG 评估体系
- Rerank 策略评估(top_k、candidate_k、召回/精排比例)
- 开发 SQL assistant Skill
- 实现暂停功能与人工介入机制 --done
- 新增问题类型判断,简单问题跳过复杂处理流程
- 扩展网络搜索能力
- 支持多步骤规划与任务并行执行
- 搭建路由器节点,由 LLM 自主判断下一步动作
- 优化 memory 管理:集成 MemO、LangMem 等方案
- multi-agent:工具过多,把工具拆分给职责明确的专业化agent,提升工具选择的准确性和整体稳定性
- 历史记录会话名称可修改
- 死循环检测与恢复:_is_stuck + attempt_loop_recovery
- 账号体系与权限体系
- 新增注册登录接口:
/auth/register、/auth/login。 - 新增用户信息接口:
/auth/me。 - 引入 JWT 鉴权中间能力:请求通过 Bearer Token 识别当前用户。
- 权限隔离:
admin:可执行文档上传、删除、文档列表查询。user:仅可聊天、查询和删除自己的会话历史。
- 数据库建模与持久化迁移
- 使用 SQLAlchemy 建立核心模型:
User、ChatSession、ChatMessage、ParentChunk。 - 聊天历史由本地 JSON 迁移到 PostgreSQL。
- 父级分块文档(L1/L2)由本地 JSON 迁移到 PostgreSQL。
- Redis 缓存策略
- 会话消息缓存:按
user + session维度缓存消息列表。 - 会话列表缓存:按
user维度缓存会话摘要列表。 - 父文档缓存:按
chunk_id缓存父级分块内容。 - 写入/删除后执行缓存失效,保证一致性。
- 密码安全与兼容
- 新注册用户采用 PBKDF2-SHA256 存储密码哈希(避免 bcrypt 后端兼容问题)。
- 登录校验兼容历史 bcrypt 哈希,支持平滑迁移。
- 后端:
backend/- app.py:FastAPI 入口、CORS、静态资源挂载。
- api.py:聊天、会话管理、文档管理接口。
- auth.py:注册登录、JWT 鉴权、权限检查、密码哈希与校验。
- database.py:数据库引擎与会话工厂、建表入口。
- models.py:ORM 模型定义(用户、会话、消息、父文档)。
- cache.py:Redis JSON 缓存封装。
- agent.py:LangChain Agent、会话存储、摘要逻辑。
- tools.py:天气查询、知识库检索工具。
- embedding.py:本地 HuggingFace 稠密向量(默认
BAAI/bge-m3)+ BM25 稀疏向量;BM25 状态持久化与增量更新。 - document_loader.py:PDF/Word 加载与分片。
- parent_chunk_store.py:父级分块仓储(PostgreSQL + Redis,用于 Auto-merging 回取父块)。
- milvus_writer.py:向量写入(稠密+稀疏)。
- milvus_client.py:Milvus 集合定义、混合检索;
query_all分页查询(单次query的limit受服务端上限约束,删除前拉全量 chunk 文本时使用)。 - schemas.py:Pydantic 请求/响应模型。
- 前端:
frontend/- index.html + script.js + style.css:Vue 3 + marked + highlight.js,提供聊天、历史会话、文档上传/删除界面。
- 数据:
data/bm25_state.json:BM25 词表与doc_freq/total_docs等统计(稀疏检索 IDF 与入库、删除同步)。documents/:上传文档原文件。
- 向量库:Milvus(可由
docker-compose或自建服务提供)。
- 用户在前端输入问题,调用
POST /chat/stream(流式)。 - FastAPI
api.py返回StreamingResponse(media_type="text/event-stream")。 - LangChain Agent 根据问题类型决定是否调用工具:
- 天气问题 →
get_current_weather - 知识问答 →
search_knowledge_base
- 若命中知识库工具,进入
rag_pipeline.py执行检索工作流,各阶段通过emit_rag_step()实时推送到前端。 - 检索结果与 RAG Trace 一起返回,Agent 流式生成最终回答(逐 token 推送)。
- 前端 ReadableStream 逐块解析 SSE,打字机效果实时渲染。
- 同时消息持久化到 PostgreSQL,并通过 Redis 缓存加速历史会话回放。
- 初次召回:
retrieve_initial
- 调用
retrieve_documents。 - 先按
chunk_level == 3执行 Milvus Hybrid 检索(Dense + Sparse + RRF)。 - 取更大候选集后走 Jina Rerank 精排。
- 对召回叶子块执行 Auto-merging(L3->L2->L1),父块从 DocStore 读取。
- 相关性打分门控:
grade_documents
- 使用结构化输出打分
yes/no。 yes直接进入生成回答;no进入重写阶段。
- 查询重写路由:
rewrite_question
- 在
step_back / hyde / complex中选择策略。 - 生成
rewrite_query、step_back_question、hypothetical_doc等中间结果。
- 二次召回:
retrieve_expanded
- 对重写后的查询(或 HyDE 文档)再次检索。
- 同样执行 L3 召回 + Auto-merging,结果去重后返回上下文。
- 答案生成:Agent 结合上下文生成最终回答。
- 可观测追踪:返回
rag_trace,包括
- 评分结果与路由决策
- 重写策略与重写内容
- 初次/二次检索结果
- 三级检索与合并信息(
leaf_retrieve_level、auto_merge_*) - 检索分数
score与精排分数rerank_score
- 前端上传 PDF/Word 到
POST /documents/upload。 - 若同名文件已存在:先从 Milvus 分页查询该文件全部叶子 chunk 的
text,对 BM25 统计执行 increment_remove,再删除旧向量与父块缓存,避免统计与库不一致。 document_loader.py执行三级滑动窗口分块并写入层级元数据(chunk_id / parent_chunk_id / root_chunk_id / chunk_level)。- L1/L2 父级分块写入
parent_chunk_store.py(DocStore)。 - L3 叶子分块在
milvus_writer中先对本轮 chunk 文本执行 BM25 increment_add(更新N、df、总长度并写回bm25_state.json),再经embedding.py生成 Dense 与 Sparse 向量并写入 Milvus。 - 后续检索可直接利用新文档参与召回。
- 内容:
version、全局total_docs(chunk 篇数)、sum_token_len、vocab(词 → 稀疏维度下标)、doc_freq(词 → 文档频次,用于 IDF)。vocab与doc_freq职责不同:前者定 Milvus 稀疏向量维度,后者定 BM25 统计。 - 增量:每入库一批叶子 chunk 增加统计;删除文档或覆盖上传前按文件名扣减。词表下标不回收,避免与历史稀疏向量维度冲突。
- 注意:
data/默认被.gitignore忽略,状态文件通常不落库;若 Milvus 已有数据但状态文件缺失,需清空重导或自行重建统计。
- 每轮问答按当前登录用户 +
session_id写入 PostgreSQL。 - 当消息过长时触发摘要压缩,保留长期上下文。
- Redis 缓存会话列表与会话消息,减少高频读取数据库压力。
- 前端可通过会话接口读取、删除当前用户自己的历史对话。
- 后端:FastAPI、LangChain Agents、Pydantic、Uvicorn、SQLAlchemy、PostgreSQL、Redis。
- 向量与检索:Milvus(HNSW 稠密索引 + SPARSE_INVERTED_INDEX 稀疏索引)、RRF 融合、Jina Rerank 精排。
- 嵌入与稀疏:
langchain_huggingface本地稠密向量(默认BAAI/bge-m3);中英混合规则分词 + BM25 手写稀疏向量,统计持久化至bm25_state.json。 - 前端:Vue 3 (CDN)、marked、highlight.js、纯静态部署。
- 工具链:dotenv 配置、requests、langchain_text_splitters、langchain_community.loaders。
需在仓库根目录或运行环境配置:
- 模型相关:
ARK_API_KEY、MODEL、BASE_URL - 稠密向量:
EMBEDDING_MODEL、EMBEDDING_DEVICE、DENSE_EMBEDDING_DIM(需与 Milvus 集合dense_embedding维度一致) - BM25 持久化:
BM25_STATE_PATH(可选,默认data/bm25_state.json) - Rerank 相关:
RERANK_MODEL、RERANK_BINDING_HOST、RERANK_API_KEY - Milvus:
MILVUS_HOST、MILVUS_PORT、MILVUS_COLLECTION - 数据库缓存:
DATABASE_URL、REDIS_URL - 鉴权相关:
JWT_SECRET_KEY、ADMIN_INVITE_CODE、JWT_ALGORITHM、JWT_EXPIRE_MINUTES - 密码参数:
PASSWORD_PBKDF2_ROUNDS - Auto-merging:
AUTO_MERGE_ENABLED、AUTO_MERGE_THRESHOLD、LEAF_RETRIEVE_LEVEL - 工具:
AMAP_WEATHER_API、AMAP_API_KEY
- 鉴权
POST /auth/register:注册(支持普通用户/管理员邀请码模式)。POST /auth/login:登录,返回 Bearer Token。GET /auth/me:获取当前登录用户信息。
- 聊天
POST /chat:聊天(非流式),入参message、session_id。POST /chat/stream:聊天(流式 SSE),入参同上,返回text/event-stream。
- 会话(用户隔离)
GET /sessions:列出当前用户会话。GET /sessions/{session_id}:拉取当前用户某会话消息。DELETE /sessions/{session_id}:删除当前用户会话。
- 文档(管理员权限)
GET /documents:列出已入库文档及 chunk 数。POST /documents/upload:上传并向量化 PDF/Word/Excel。DELETE /documents/{filename}:删除指定文档向量数据(会先按文件名分页拉取 chunk 文本并同步扣减 BM25 持久化统计,再删 Milvus)。
这是一个解决 "同步工具阻塞异步事件循环" 问题的关键架构设计,常用于 Python 异步 Web 服务与 CPU 密集型/IO 密集型任务的混合场景。
痛点:
FastAPI 运行在单线程的 asyncio Event Loop 上。为了不阻塞主线程,LangChain 通常将同步工具(如 search_knowledge_base)放到 ThreadPoolExecutor 中运行。但在子线程中,无法直接访问主线程的 asyncio.Queue,且 asyncio.get_event_loop() 通常会失败。
解决方案: 我们采用了 "Global Loop Capture + Threadsafe Callback" 模式:
- Loop 捕获 (Main Thread):
在 Agent 开始生成前,主线程调用
set_rag_step_queue()。此时我们捕获当前的运行循环:_RAG_STEP_LOOP = asyncio.get_running_loop()并保存为全局变量。 - 跨线程发射 (Worker Thread):
当 RAG 工具在子线程运行时,调用
emit_rag_step()。 函数内部使用_RAG_STEP_LOOP.call_soon_threadsafe(queue.put_nowait, step_data)。 - 原理:
call_soon_threadsafe是 asyncio 唯一允许从其他线程向 Loop 注入回调的方法。它相当于向主 Loop 的"待办事项箱"投递了一个任务(即queue.put_nowait),主 Loop 会在下一次 tick 立即执行它,从而实现数据的平滑流转。
# 核心代码摘要 (tools.py)
def set_rag_step_queue(queue):
global _RAG_STEP_QUEUE, _RAG_STEP_LOOP
_RAG_STEP_QUEUE = queue
# 关键:在主线程捕获 Loop
_RAG_STEP_LOOP = asyncio.get_running_loop()
def emit_rag_step(icon, label):
# 关键:从子线程安全调度回主 Loop
if _RAG_STEP_LOOP and not _RAG_STEP_LOOP.is_closed():
_RAG_STEP_LOOP.call_soon_threadsafe(
_RAG_STEP_QUEUE.put_nowait,
{"icon": icon, "label": label}
)项目并非简单调用 Milvus 接口,而是手动构建了稀疏-稠密双塔检索:
- Dense Pathway:使用
langchain_huggingface.HuggingFaceEmbeddings(默认BAAI/bge-m3)生成稠密向量,维度由DENSE_EMBEDDING_DIM与集合 schema 对齐(默认 1024),向量可做 L2 归一化后与 MilvusIP度量配合。 - Sparse Pathway:
- 在
embedding.py中基于中英混合规则分词(单字中文 + 英文单词)实现 BM25,生成{稀疏维度下标: BM25 分数},写入 MilvusSPARSE_FLOAT_VECTOR。 - 全局
N/doc_freq/ 平均文档长等统计持久化在bm25_state.json,入库与删除走增量更新;检索与写入共用同一embedding_service单例。
- 在
- Milvus 融合:
- 使用 Milvus 的
AnnSearchRequest同时发起两个请求。 - RRFRanker (Reciprocal Rank Fusion): 采用
k=60的倒数排名融合算法,将两路召回结果无参数化地合并,避免了加权求和中调节alpha参数的困难。
- 使用 Milvus 的
前端 script.js 维护了一个微型状态机来处理通过 SSE 传回的复杂混合流:
- Idle: 等待用户输入。
- Thinking (Initial): 收到请求,创建消息气泡,
isThinking=true,显示默认动画。 - Thinking (Active RAG): 收到
type: rag_step事件。- 状态机保持
isThinking=true。 - 动态更新 Header 文字(如 "正在重写查询...")。
- 向
ragSteps数组追加步骤,触发 Vue 列表渲染。
- 状态机保持
- Streaming: 收到第一个
type: content事件。- 立即切换: 设置
isThinking=false。 - 并不销毁气泡,而是隐藏思考 header,开始在同一气泡内追加 Markdown 文本。
- 这样实现了从"思考"到"回答"的无缝视觉过渡,没有突兀的 UI 抖动。
- 立即切换: 设置
用户发送消息
│
▼
POST /chat/stream → StreamingResponse(text/event-stream)
│
▼
chat_with_agent_stream()
│
├── 创建统一输出队列 (asyncio.Queue)
├── 设置 _RagStepProxy → emit_rag_step() 的输出直接入队
├── 启动 _agent_worker 后台任务 (asyncio.create_task)
│ └── agent.astream(stream_mode="messages") 逐 token 产出
│ ├── AIMessageChunk (文本) → {"type": "content"} 入队
│ └── tool_call_chunks (工具调用) → 跳过
│
└── 主循环:await output_queue.get() → yield SSE
▲
│ (并发) RAG 工具在线程池中执行
│ emit_rag_step() → loop.call_soon_threadsafe → 入队
│ {"type": "rag_step"} 立即从队列取出并推送到前端
- 使用 LangGraph
agent.astream(stream_mode="messages")获取逐 token 的AIMessageChunk。 - 过滤
tool_call_chunks,只转发文本内容给前端。 - 关键设计:Agent 流式循环运行在
asyncio.create_task后台任务中,主生成器只负责从统一output_queue取事件并 yield。这样 RAG 步骤在工具执行期间(agent 阻塞等待工具返回时)仍然可以实时推送到前端。
emit_rag_step(icon, label, detail)通过asyncio.get_event_loop().call_soon_threadsafe()将步骤从同步线程安全地推送到异步队列。_RagStepProxy代理对象将原始 step dict 包装为{"type": "rag_step", "step": {...}}后放入统一输出队列,无需额外 relay 任务。rag_pipeline.py在每个关键节点发射步骤:retrieve_initial→ "正在检索知识库..."grade_documents→ "正在评估文档相关性..."rewrite_question→ "正在重写查询..."(含策略选择)retrieve_expanded→ "使用扩展查询重新检索..."
每个事件格式:data: {JSON}\n\n,类型字段:
content:文本 token(打字机效果)rag_step:实时检索步骤({icon, label, detail})trace:完整 RAG 追踪信息(回答完成后发送)error:错误信息[DONE]:流结束标记
StreamingResponse(
event_generator(),
media_type="text/event-stream",
headers={
"Cache-Control": "no-cache, no-store, must-revalidate",
"Connection": "keep-alive",
"X-Accel-Buffering": "no", # 禁用 Nginx 缓冲
},
)- 使用
response.body.getReader()+TextDecoder逐块读取。 - 手动按
\n\n分割 SSE 事件,解析data:前缀后的 JSON。 content事件追加到消息文本;rag_step事件追加到检索步骤数组并同步更新思考状态文字。
- 发送消息后立即创建带
isThinking: true的气泡,显示跳动圆点 + 动态文字。 - 收到
rag_step时,thinkingLabel更新为当前步骤(如"正在检索知识库...")。 - 收到第一个
contenttoken 时,isThinking = false,同一气泡无缝切换为正常文本流。 - 不存在两个分离的气泡,从思考 → 检索 → 回答全程在同一个气泡内完成。
- 通过
this.messages[botMsgIdx]索引访问(而非缓存对象引用),确保拿到 Vue 的 reactive proxy。 ragSteps数组通过push()触发响应式更新。
- 发送按钮在
isLoading期间切换为红色终止按钮(v-if/v-else)。 - 点击调用
AbortController.abort(),取消正在进行的fetch请求。 - 捕获
AbortError,在气泡中显示"(已终止回答)"。
- FastAPI 的
StreamingResponse在客户端断开连接(如浏览器触发abort()或关闭标签页)时,会检测到 socket 断开。 - Python 的生成器协议会向响应生成器抛出
GeneratorExit异常。 - 实现细节:采用主动防御式编程,显式捕获
GeneratorExit并执行agent_task.cancel()。 - 为什么不依赖框架自动取消?:虽然 Starlette/FastAPI 拥有基于
BaseHTTPMiddleware的级联取消机制(Cascading Cancellation),但在复杂的后台任务结构或特定中间件配置下,取消信号可能延迟或在传递链中丢失。显式调用.cancel()提供了确定性的资源回收保证。 - 即时止损原理:
agent_task.cancel()会立即在任务挂起点注入asyncio.CancelledError。对于流式 LLM 请求,这会触发httpx关闭 TCP 连接。服务端(OpenAI 等)检测到 client 掉线后会立即停止推理,从而实现真正的 Token 节省。
- 稠密向量:由兼容 API 改为
langchain_huggingface本地模型(默认BAAI/bge-m3),支持EMBEDDING_MODEL/EMBEDDING_DEVICE;Milvusdense_embedding维度与DENSE_EMBEDDING_DIM对齐(默认 1024)。 - BM25 统计:
词表 vocab + 文档频次 doc_freq + 文档数 N持久化至data/bm25_state.json(可选BM25_STATE_PATH);每个叶子 chunk 视为一篇文档,入库时 increment_add,删除文档或覆盖上传前按文件名从 Milvus 拉取 chunk 文本后 increment_remove;embedding_service在api与rag_utils间单例共享,避免写入与检索状态分裂。 - Milvus 查询:单次
query的limit受服务端窗口限制(如 16384),新增query_all分页拉取,供删除/覆盖前取回全文以同步 BM25;修复单次limit=100000导致的 RPC 报错。 - 说明:README「环境变量」「文档入库」「混合检索」「数据目录」等已同步为上述行为;
data/下bm25_state.json通常被 git 忽略,空库仅有 Milvus 无状态文件时需自行重建或重导。
- 新增认证与权限模块:注册、登录、JWT、管理员权限控制。
- 聊天历史从本地 JSON 迁移到 PostgreSQL,按用户隔离会话数据。
- 父级分块存储从本地 JSON 迁移到 PostgreSQL。
- 引入 Redis 缓存会话与父文档,提高读取性能并降低数据库压力。
- API 升级为 Token 驱动,移除前端直接传
user_id的历史模式。 - 文档管理接口收敛到管理员角色,避免普通用户误操作知识库。
- 密码哈希方案升级为 PBKDF2-SHA256,兼容历史 bcrypt 校验。
- 新增三级滑动窗口分块(L1/L2/L3),并为分块写入层级元数据。
- 存储策略调整为 Leaf-only:仅 L3 叶子块写入 Milvus,L1/L2 写入本地 DocStore。
- Auto-merging 改为从 DocStore 拉取父块,减少向量冗余存储。
- 思考链路新增三级检索与自动合并步骤事件。
rag_trace新增leaf_retrieve_level与auto_merge_*字段,且历史会话读取同样保留这些字段。
- 问题:Agent 在执行同步工具(如
search_knowledge_base)时,由于运行在线程池中,无法正确获取主线程的 asyncio 事件循环,导致emit_rag_step事件丢失,前端"思考中"气泡一直静止。 - 修复:
- Backend (
tools.py):在set_rag_step_queue中显式捕获主线程的loop。 - Backend (
tools.py):更新emit_rag_step使用捕获的_RAG_STEP_LOOP.call_soon_threadsafe跨线程调度事件。 - Frontend (
script.js):在发送消息时初始化空的ragSteps: []数组,确保 Vue 响应式系统能立即追踪后续的 push 操作。
- Backend (
- 效果:用户提问后,思考气泡内实时跳动显示检索步骤(如"🔍 正在检索知识库..." -> "📊 正在评估文档相关性..."),不再只有静态的"正在思考中..."。