淘天Agent秋招一面

一、手撕和八股
1. 手撕岛屿数量,秒了
2. Transformer 中 Attention 的本质是什么?你能从数学角度简要解释一下吗?
3. 在 Agent 多轮对话任务中,你觉得 Attention 的局限性体现在哪些方面?
4. 简要介绍一下 SFT的核心流程,以及数据集的构建策略,SFT之后常见的 Post-Training 还有哪些?它们之间的目的有何区别?
5.  什么是 RAG,它是怎么提升生成质量的?与传统检索 + 模型生成的流程有何不同?你是如何评估一个RAG系统是否work的?
6. PPO 和 DPO 在大模型对齐中的主要区别是什么?DPO 训练通常有哪些注意事项?用过GRPO么?

二、简历
1. 你在提到过 Modular Agent,你能讲讲它是如何实现多步规划的吗?
2. 你提到了多个工具调用链路,调度策略是如何设计的?是否有异常 fallback 策略?
3. 你构建的 Agent 评估体系包括哪些维度?如何衡量 planning 能力 vs hallucination rate?
4. 你还微调过Qwen,选择的训练阶段和Loss函数是如何决定的?
5. Prompt 自动推荐模块用了哪些优化策略?有没有尝试过Prompt压缩或embedding表示的方式?

三、业务场景相关相关
假如一个 Agent 推理链路包含 3 个工具 + 高频请求,系统整体延迟较高,你会如何优化?
全部评论

相关推荐

评论
点赞
3
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务