整体架构 用户提问 → 向量检索 → LLM 生成答案核心三件套:文档解析 + 向量数据库 + 大模型 API完整实现步骤1.文档预处理支持 PDF/Word/Markdown 等格式用 LangChain 的 DocumentLoader 加载文件文本分块(推荐 chunk_size=500,overlap=50)2.向量化存储选用向量库:Milvus / FAISS / Chroma用 text-embedding 模型把文本转成向量存入库并建立索引3.检索 + 生成用户问题向量化 → 检索 Top-K 相关文档把「检索结果 + 用户问题」拼成 Prompt调用大模型 API,返回最终答案推荐技术栈(低成本 / 全免费)Python + LangChain + FAISS + 通义千问 API新手避坑分块太大 → 检索不精准不做 Rerank → 召回质量差不设置 “我不知道” → 模型容易瞎编