接好运
点赞 评论

相关推荐

8.21二面 依旧很多大模型相关问题1. 你理解 ThreadLocal 的考点是什么?2. 如何避免线程本地变量导致的内存泄漏?3. try/finally 里 ThreadLocal 要不要手动 remove 掉?4. 本地缓存为什么设置 5 秒?为什么不是别的值?5. 你们是怎么做压测验证的?6. 遇到大促、流量峰值时,如果写操作集中发生,缓存和 DB 一致性如何保证?7. 你在项目里具体负责哪些模块?(缓存 / 对账 / CRUD 等)8. 你现在做的 SDK 具体解决什么问题?9. 老系统和新系统为什么要做迁移?老系统有什么问题?10. 新架构是谁主导设计的?为什么是单体架构?11. 你总结一下你做的三个核心点?12. 你还要负责老逻辑迁移到新系统吗?13. 对大模型(AI/LLM)方面的理解:14. 你怎么看大模型对工作的影响?15. 在你们内容审核业务里,AI 是怎么应用的?16. 你平时在实习里可以使用例如 ChatGPT、Claude、Copilot 之类的工具吗?17. 你个人平时常用哪些模型?(比如 GPT、Claude、通义千问、Gemini)18. 你怎么看像 AI Agent、RAG、MCP 等这些最近很火的概念?19. 你自己有没有实践过 Prompts 的设计?能举一个案例吗?20. 你会怎么验证 / 监控 Prompt 的正确性?如果模型输出结果和预期格式不一致,你们怎么处理?21. 你们上线前会不会评估 Prompt 的效果?怎么测试?22. 你对未来职业的规划是什么?想在技术还是管理上走?23. 你更看重深度还是广度?打算怎么平衡?24. 你对杭州的工作地点接受吗?
发面经攒人品
点赞 评论 收藏
分享
1️⃣RAG 有哪几个步骤?Step1:将文本分割成块;Step2:使用编码模型将这些块嵌入到向量中,将所有这些向量放入索引中;Step3:LLM 创建一个提示,告诉模型根据我们在搜索步骤中找到的上下文来回答用户的查询。2️⃣实际项目中RAG有哪些优化技巧?首先召回源会考虑多路召回,在召回后面增加一个重排序的阶段,提升召回的质量。另外,重排序模型以及生成模型会根据系统问答的指标情况,进一步微调。3️⃣RAG 中为什么会出现幻觉?出现幻觉问题主要分为两大类,一是生成结果与数据源不一致,训练数据和源数据不一致、数据没对齐或者编码器理解能力的缺陷导致;二是用户问题超出了大模型的认知,用户的问题不在语言模型认知范围内导致。4️⃣RAG 一般怎么做效果评估?RAG 做效果评估主要是针对检索和生成两个环节。对检索环节,我们可以采用 MRR 即平均倒排率,前 k 项的 Hits Rate 命中率, NDCG 排序指标等。生成环节首先是量化指标,再评估生成答案的多样性,看看模型是否能够生成多种合理且相关的答案。还需要引入人类评估,考虑资源效率。5️⃣针对幻觉的问题,有什么解决思路?加入一些纠偏规则,比如采用 ReAct 的思想,让大模型对输出的结果进行反思。还有一种思路是集成知识图谱,即不再局限于向量数据库匹配,做召回时不仅考虑文档块,同时还考虑图谱的三元组。将知识图谱( KGs )集成到 RAG 中,通过利用知识图谱中结构化且相互关联的数据,可以显著增强当前 RAG 系统的推理能力。6️⃣在实际做项目中,经常遇到各种边界的 case ,一般怎么解决?这个需要分情况来看,首先是无效问题:如果对于知识库中没有的问题,我们需要做一个准入的判别,判断是否需要回答。一般是一个二分类模型,或者直接用大模型+ prompt 来做,使模型在这种情况下输出一个预设的兜底话术。第二个是减少幻觉,在推理模块中添加规则和提示工程技术。还有一种是格式错误:模型可能会生成无法解析的答案,这种可以设计一个备份的代理大模型,当解析失败时,可以基于代理大模型直接生成简洁准确的总结。📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
查看6道真题和解析
点赞 评论 收藏
分享
牛客网
牛客网在线编程
牛客网题解
牛客企业服务