滴滴大模型三面总结

1️⃣一面
1. Self-Attention的原理
2. LLM 编码器和解码器的特点
3. 常用的开源大模型
4. 都做过什么技术(罗列,没有深挖)
5. 对强化学习的了解
手撕一道力扣简单
反问组里做什么工作
2️⃣二面
1. 让挑一个自己最拿手的项目介绍
2. 数据蒸馏的方法
3. 实践过程中有什么值得注意的点
4. QWEN2的架构和训练方式
5. PPO DPO GRPO的区别,几个强化学习的损失函数
6. 自监督学习怎么做
无手撕,简单反问
3️⃣三面
1. 如何防止毁灭性遗忘
2. 大模型如果应用到具体场景
3. 现在大模型应用的主流范式
4. 为什么用GRPO而不是SFT
5. 一道数学题
📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
全部评论

相关推荐

09-03 20:48
龙岩学院 护士
攒个人品,秋招不指望了,希望春招能有机会上岸吧。------------------------------------------------------没有自我介绍环节,一上来直接拷打实习,边拷打边问八股,基本上是我说一个做的东西,然后面试官就要开始问对应的八股了,记录一下问的八股:1. Qwen 与传统的Transformer模型相比,有什么结构上的改进?2. RMSNorm相较于LayerNorm有什么优势?公式是什么?3. SwiGLU的公式是什么?4. GRPO的公式是什么,这样做为什么更好?5. KL散度的公式是什么,为什么要用KL散度?6. LLM的损失函数是什么?给你一个10w的词表,计算出事的损失值7. GRPO为什么要做clip,直接用SFT后的模型还会不稳定吗?优势度可以怎样改进?8. 为什么你要用GRPO?GPRO结果比之前好多少?显存开销多大?训练一个Step需要多久?奖励函数如何设置的,为什么?有没有想过为什么一开始Reward出现大幅度震荡?GRPO是否一定有效,还有什么解决方法?9. Post-Training 的工作机制,为什么要做三阶段训练?什么情况下应该用GRPO?为什么DeepSeek用了GRPO?如何从V3到R1?10. 微调是如何进行微调的?为什么LoRA能够work?除了LoRA外,还了解哪些微调方法?11. 后训练用的哪个框架?你用过什么框架?如何使用deepspeed进行分布式训练?脚本是你自己写的吗?12. 知道什么Linux命令?13. 用过C++,Java吗?平时用什么多?14. 如何去评价你工作的产出和质量(基本上每个面试官都会问)15. FLUX的工作原理,LoRA在这个地方起到了什么作用?16. 你认为实习过程中哪些是从零到一的工作?(全部!鼠鼠之前学地理的)遇到一个不熟悉的领域,你会如何进行学习?-------------------------------------------------------大概是这些,可能不是很全手撕:删除链表中的节点;快慢指针秒了反问:面试官先介绍了下部门业务,随后反问:1. 为啥初试后又是初试?(可以自己点的,实际上就是二面)2. 后续几轮面试呢?(三轮,还有大老板面)3. 工作强度 (8-9.30左右)4. 这个岗位需要什么样的人? (努力学习新知识,耐心)总而言之美团的面试体验真没的说,面试官会笑这一点就值得夸了,全程没啥压力,但是估计凉了,有些没答好
查看17道真题和解析
点赞 评论 收藏
分享
评论
点赞
16
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务