继续来分享下之前的面经~欢迎友好讨论,信息共享1.SFT 之后常见的 Post-Training还有哪些?它们各自的设计目的是什么2.什么是RAG它提升生成质量的核心原理是什么3.RAG与传统的检索 + 模型生成流程有何不同4.如何构建评估体系来验证一个RAG系统是否真正Work?5.PPO和DPO在对齐阶段的主要区别是什么?6.在进行DPO训练时,通常有哪些关键的注意事项?是否了解过GRPO7.在Modular Agent中,多步规划是如何实现的?8.针对多个工具的调用链路,你的调度策略是如何设计的9.Agent 评估体系包含哪些核心维度?如何量化衡量Planning能力与Hallucination Rate )?10.在微调Qwen模型时,你是如何确定训练阶段和 Loss Function的?11.Prompt自动推荐模块应用了哪些优化策略?是否尝试过Prompt压缩或Embedding表示的方式?12.假如Agent推理链路包含3个工具且请求频率极高,导致系统整体延迟较高,你会从哪些维度进行优化?13.在记忆系统中,意图识别 承担什么职责?