# 面试官最爱问的AI问题
**1. 聊聊RAG吧,从原理到落地你都怎么理解?**
> RAG就是让大模型先查资料再回答,解决它“记不住”和“瞎编”的问题。面试官会一路追问:检索怎么保证准?分块多大合适?相似度和关键词怎么结合?重排序有必要吗?——每层都能挖出你踩过的坑。
**2. 大模型幻觉怎么处理?**
> 别只说“加提示词”。拆开答:原因有三(训练数据、解码随机性、知识边界)→ 解法分三层(提示约束、RAG兜底、输出校验)。面试官听到“温度参数”和“思维链”会继续往下问。
**3. MCP和Function Calling是一回事吗?**
> 不是。Function Calling是模型能力,MCP是标准化协议。面试官更关心你在项目里怎么用的——比如用MCP让模型调API、查数据库,这个实战经验加分。
**4. 你们RAG线上延迟多少?怎么优化?**
> 考察工程落地。检索阶段调HNSW参数、加缓存;生成阶段小模型先回、大模型兜底;异步架构保证用户体验。面试官想听的不是完美方案,是你权衡过。
**5. 检索不到内容时怎么办?**
> 核心是“不知道就说不知道”。先判断阈值,再明确告知用户,或引导换种问法。硬答比答不上更致命。
**反问环节:**
- “你们RAG线上命中率大概多少?”
- “幻觉问题走提示词优化还是后处理?”
问出来,面试官就知道你做过、想过、能落地。
**1. 聊聊RAG吧,从原理到落地你都怎么理解?**
> RAG就是让大模型先查资料再回答,解决它“记不住”和“瞎编”的问题。面试官会一路追问:检索怎么保证准?分块多大合适?相似度和关键词怎么结合?重排序有必要吗?——每层都能挖出你踩过的坑。
**2. 大模型幻觉怎么处理?**
> 别只说“加提示词”。拆开答:原因有三(训练数据、解码随机性、知识边界)→ 解法分三层(提示约束、RAG兜底、输出校验)。面试官听到“温度参数”和“思维链”会继续往下问。
**3. MCP和Function Calling是一回事吗?**
> 不是。Function Calling是模型能力,MCP是标准化协议。面试官更关心你在项目里怎么用的——比如用MCP让模型调API、查数据库,这个实战经验加分。
**4. 你们RAG线上延迟多少?怎么优化?**
> 考察工程落地。检索阶段调HNSW参数、加缓存;生成阶段小模型先回、大模型兜底;异步架构保证用户体验。面试官想听的不是完美方案,是你权衡过。
**5. 检索不到内容时怎么办?**
> 核心是“不知道就说不知道”。先判断阈值,再明确告知用户,或引导换种问法。硬答比答不上更致命。
**反问环节:**
- “你们RAG线上命中率大概多少?”
- “幻觉问题走提示词优化还是后处理?”
问出来,面试官就知道你做过、想过、能落地。
全部评论
幻觉问题不提是哪类幻觉问题直接回答吗?如果是时效性幻觉要让模型调用工具,私有知识类用RAG做私有知识检索,复杂推理类幻觉没什么太好办法,主要靠将复杂问题拆分小任务一步一步推理来解决幻觉吧?
相关推荐
点赞 评论 收藏
分享

查看9道真题和解析