面试官喜欢问用过什么ai,这时候就不能局限于ChatGPT、DeepSeek、豆包这种网页版对话工具,这些只是基本操作。面试官更想知道的是,你有没有用过能直接赋能开发提效的 AI 工具(比如 IDE 集成类、代码专属 AI 工具),以及你如何通过 Agent 思维、精准提示词设计,把 AI 变成真正的生产力助手。比如,只说 “用过 ChatGPT 写代码”,远不如说 “用 Cursor 的实时代码补全功能重构过 Spring Boot 接口的冗余逻辑”“靠 Claude Code 分析 JVM 堆转储日志,定位了并发场景下的内存泄漏问题”“基于 LangChain 搭过简易的本地知识库 Agent,用来自动检索项目历史文档,解决跨模块接口调用的疑难问题” 来得有说服力。除此之外,“开发中遇到过 AI 幻觉吗?怎么解决的?” 也是高频追问。毕竟真实工作里,AI 生成的代码或方案并非万能,甚至会出现 “一本正经输出错误答案” 的情况。比如你让 AI 写一个基于 Redis 的分布式锁,它可能会漏掉 finally 块的解锁逻辑,导致死锁;或者让它优化 MySQL 慢查询,它给出的索引方案反而会让查询效率更低;更常见的是,遇到一些冷门框架的问题,AI 会拼接看似合理的解决方案,实则完全不适用。这些场景的核心矛盾,在于 AI 是基于海量语料的概率性输出,而非真正理解业务逻辑和技术原理。这时候,能讲清 “如何识别幻觉、如何解决幻觉”,远比单纯说 “用过 AI” 更能体现你的能力。比如可以说:“我会先交叉验证 AI 给出的方案 —— 对照官方文档、查看源码注释,或者搭建最小测试用例跑通验证;如果 AI 陷入错误循环,我会拆解问题,用更精准的提示词限定范围,比如明确‘基于 Redis 6.0 版本,用 SETNX + EX 命令实现分布式锁,必须包含超时兜底和解锁校验’;实在解决不了的,会放弃直接生成,转而让 AI 提供思路参考,再结合自己的技术积累完成落地。”说到底,面试官问 AI 相关问题,不是考你 “知道多少工具”,而是考你 “有没有把工具用出深度”—— 是否能借助 AI 提升开发效率,是否能分辨 AI 输出的对错,是否具备 “工具辅助 + 独立思考” 的复合能力。这才是校招和社招中,拉开候选人差距的关键。