面试官:关于Rag,你了解多少?

1️⃣面试官:上面这个是 RAG 标准流程,实际项目中还有哪些优化技巧?
在实际中,召回源会考虑多路召回,例如稀疏召回,语义召回,字面召回等。对于多路召回截断和召回分数对齐的问题,还会采用在召回后面增加一个重排序的阶段,精简召回数并提升召回的质量。另外,其中的 embedding 模型,重排序模型,以及生成模型会根据系统问答的指标情况,会针对性的进行进一步的微调。
2️⃣面试官:那生成环节怎么评估效果?
首先是量化指标:例如 Rouge - L ,文本相似度,关键词重合度等指标。除了准确度,还可以评估生成答案的多样性,看看模型是否能够生成多种合理且相关的答案。还需要引入人类评估:进行人工评估,一般是负责改项目的产品经理和测试人员,以及内测的普通用户对模型的回答进行质量、准确性和连贯性的评分。
还应考虑资源效率:考虑模型的计算复杂性、内存需求和推理速度,尤其是在资源受限的环境中,看看 RAG 是否能够以合理硬件资源效果提供更好的性能。
3️⃣面试官: RAG 中为什么会出现幻觉?
幻觉问题是大模型的一个通病,出现幻觉问题主要分为两大类,一类是生成结果与数据源不一致,自相矛盾。另一类是用户问题超出了大模型的认知。针对前者可能是训练数据和源数据不一致、数据没对齐或者编码器理解能力的缺陷和解码器策略错误可能导致幻觉。后者则是用户的问题不在语言模型认知范围内。
4️⃣面试官:针对幻觉的问题,有什么解决思路?第一个是引入更精准的知识库,消除虚假的数据源,减少数据偏差。另外可以加入一些纠偏规则,比如采用 ReAct 的思想,让大模型对输出的结果进行反思;还有现在比较流行的思路是集成知识图谱,即不再局限于向量数据库匹配,做召回时不仅考虑文档块,同时还考虑图谱的三元组。将知识图谱( KGs )集成到 RAG 中,通过利用知识图谱中结构化且相互关联的数据,可以增强当前 RAG 系统的推理能力。
5️⃣面试官:在实际做项目中,经常遇到各种边界的 case ,一般怎么解决?
首先是无效问题:如果对于知识库中没有的问题,我们需要做一个准入的判别,判断是否需要回答。
一般是一个二分类模型,或者直接用大模型+ prompt 来做,使模型在这种情况下输出一个预设的兜底话术。第二是减少幻觉:对于时间变化的问题,模型回答"我不知道"。在推理模块中添加规则和提示工程技术,使模在不确定时回答"根据当前的信息,不足以回答这个问题"。还有格式错误:模型可能会生成无法解析的答案,例如没有输出预定义格式。
全部评论
mark
点赞 回复 分享
发布于 2025-08-15 00:33 北京
mark
点赞 回复 分享
发布于 2025-10-15 16:19 浙江
mark
点赞 回复 分享
发布于 2025-09-20 16:37 广东
mark
点赞 回复 分享
发布于 2025-09-19 00:19 湖南
mark
点赞 回复 分享
发布于 2025-09-18 22:41 上海

相关推荐

作为一名正在摸索入行的 AI 应用工程师新人,我把近期收集的资料做了一次系统梳理,聚焦岗位核心能力,把从大模型应用开发、模型调优到工程化部署的全链路技术栈拆解开。一方面给自己定一个清晰的学习方向,避免在海量知识点里越学越乱;另一方面也分享给同样在入门的牛友,一起参考、一起进步。一、核心应用技术1. 提示工程 Prompt Engineering需要熟练掌握角色设定、思维链 CoT、零样本 / 少样本学习、格式约束、抗幻觉等通用技巧;针对 GPT-4o、LLaMA 3、Qwen、Claude 等不同模型做提示词适配,根据问答、摘要、翻译、代码生成等任务做针对性优化。实战上要能搭建可复用的提示词模板库,支持参数化调用和效果评估,解决模型输出不稳定、格式乱、语义跑偏等问题。2. 检索增强生成 RAGRAG 是解决大模型幻觉、落地知识密集型场景的关键,要求能完整搭建一套端到端系统。核心流程包括:文档处理:多格式加载(PDF/Word/TXT/ 网页)、多种文本切分策略向量工程:嵌入模型选型、向量生成与效率优化检索优化:向量检索、混合检索、重排序,提升召回与准确率生成优化:上下文压缩、查询改写、检索结果融合进阶方向可以了解模块化 RAG、GraphRAG、知识库增量更新等方案。3. LLM Agent 开发基于 LangChain /llamaIndex 搭建 Agent,掌握任务拆解、工具调用、结果整合、记忆管理的完整流程;能自定义工具(API、数据库、计算器、外部服务等),设计调用逻辑与失败重试机制。实战要求实现多工具协同、长短记忆管理,能处理数据分析 + 报告生成、多轮复杂问答等场景。二、模型调优与后训练1. 监督微调 SFT能完整设计 SFT 流程:数据集构建与清洗、模型选型、学习率等超参调优;熟练使用 LoRA / QLoRA 轻量化微调,基于 PEFT 库在普通显卡上完成训练,控制显存和成本。最终要能在分类、对话、意图识别等任务上落地微调,并输出对比评估结果。2. 强化学习与偏好对齐了解 RLHF、DPO 的基本思路,能用 TRL 等开源库做简单的偏好对齐训练,减少模型幻觉、违规输出,让生成内容更贴合业务规则。3. 模型压缩与推理优化掌握 INT4/INT8 量化、剪枝、知识蒸馏,用 BitsAndBytes、GPTQ 等工具在可控效果损失下压缩模型;能将模型转为 ONNX / TensorRT,支持本地与边缘部署,提升推理速度。三、工具与框架体系语言与基础:Python、Pandas、Numpy 数据处理深度学习框架:PyTorch、TensorFlow,Hugging Face 全套生态应用开发框架:LangChain、llamaIndexAPI 服务:FastAPI、Flask 封装接口,对接 OpenAI、智谱、通义千问等商用 API四、数据存储与检索结构化存储:MySQL/PostgreSQL 存用户、配置、日志缓存:Redis 做缓存、会话管理、降低重复调用成本搜索引擎:Elasticsearch 做关键词检索向量库:FAISS、Milvus 搭建向量知识库,支撑高并发 RAG 检索五、工程化部署与监控Docker 容器化打包,docker-compose 多组件部署日志与监控:ELK、Prometheus + Grafana 监控接口、推理性能、资源占用安全合规:密钥加密、权限控制、数据脱敏,满足企业安全要求六、前沿技术与行业认知持续关注 LLaMA 3、Qwen、Mistral 等开源模型迭代,以及 LangChain 等工具更新;了解多模态、智能体进化、Modular RAG、知识图谱融合等方向;结合企业服务、智能制造、智能客服等落地案例,学会把技术和业务场景结合,给出可落地方案。
从事AI岗需要掌握哪些技...
点赞 评论 收藏
分享
评论
4
41
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务