26校招|美团大模型面经

一  面
1.自我介绍,问实习和论文
2.目前大模型模型结构都有哪些
3.什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型?
4.prefix LM 和 causal LM、encoder-decoder 区别及各自有什么优缺点
5.刚刚提到 MLA ,那 MLA 是怎么对 KV Cache 做优化的
6.说一说大模型后训练的流程
7.Qwen是怎么做长度外推的
8.在 PPO 中,如何防止模型在微调数据集以外的问题上泛化能力下降?如何防止模型收敛到单一类型的高奖励回答
9.代码:25.K个一组翻转链表
二  面
1.自我介绍和讲论文讲实习,多模态大模型是否有接触?落地案例?
2.介绍一下 Qwen布的这几版模型,都做了哪些贡献,包括数据、模型和训练
3.DeepSeek 有了解吗, DeepSeek 用到的 MLA 注意力是怎么做的?它可以直接用 RoPE 吗?为什么不能,它做了哪些优化
4.了解大模型的解码策略吗,简要说一说吧
5.现有一个能力较弱的多模态模型和一个能力较强的文本模型(如 DeepSeek-R1),如何结合两者的能力来回答与多模态相关的问题?
6.代码:199.二叉树的右视图
7.反问环节
📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
全部评论

相关推荐

09-10 13:35
已编辑
四平职业大学 机器学习
终于讲到一个还没寄的人才计划了,感谢兴子一面:兴子好像每一轮面试都是采用的群面的方式,每轮面试都是至少2个面试官在场兴子整体的面试氛围比较轻松,首先也都是介绍一下简历里的项目和实习,然后就是就是面试官对简历的项目进行提问,由于自己做的项目都是偏基础软件的项目,感觉面试官也并不是很懂,唯一相关的就是正在进行的实习,是做LLM推理Infra的经历,然后就是正常询问,问问做了哪些工作,有什么收益,感觉更像是我自己在说,他们也并没有深问,而且虽然投递的是大模型算法的岗位,但是实际上并没有拷打算法八股,反而是问了几个cpp和OS的八股,都比较基础,时间有点久也不太记得了。然后手撕只能算撕半个题,就是最经典的DP爬楼梯问题,让我把状态转移方程写出来就可以,不需要我写完整的代码哈哈哈哈,然后一面就比较轻松的结束了二面:二面当时去车站接女朋友了,然后出租车堵在路上了,无奈就没用电脑面试,用手机面了全程,最后手机还没什么电了,借了出租车师傅的充电器才完成的面试。二面就是综合面试了,感觉是轻技术重性格的一轮面试,问了很多开放性的看法问题,对xxx是什么看法,如果遇到xxx你会怎么想等等这类的问题,然后就是问了问在校期间最难忘的事情是什么,我说是本科打竞赛的时光,很充实,和队友一起碰撞思想很有意思,然后面试官就顺着这个问题继续问,问我如果队友没有完成他应做的工作会怎么做什么的,我就如实回答说我的两个队友都非常积极,我们都是遇到问题一起解决,谁遇到卡点了,其他人都会帮着一起看等等这样的问题。最后就是问了问我有没有女朋友,女朋友是做什么工作的,在哪里上班啊这样的问题,然后和这个部门的base地(上海)也都比较近,所以没有像腾讯那样不太好回答三面:三面相对来说是技术含量最高的一轮面试,这一次就是会拷打一些大模型相关的知识,让我觉得这才是正常的算法岗吧哈哈哈哈三面一开始也是一样介绍简历里的项目,并且进行深入的提问,对于实习经历重点问了问,因为比较相关,然后这边的部门感觉主要的业务是做AI Coding工具的部门,问了我很多Agent和RAG的一些知识,我说Agent没有做过相关的项目,但是大概了解过一些基础的框架如:LangChain等等,然后又问我对RAG技术是什么看法,这个问题我的回答有点狂了我说我不太看好RAG技术,感觉这是一个混淆概念对技术,面试官问我原因,我说与其把精力放在做RAG上,不如提升模型等Long Context能力,但是后面回想了一下,这两个工作的方面其实也不一样,一个是提升使用LLM的能力,一个是提升LLM自身的能力,当时不知道怎么回事就脑子一热了,面试官也没有拷打我,就说即便RAG技术不以现在的形式存在,也可能以另外一种方式存在,然后我就顺着他的话说是的是的,我刚才的表述不太准确然后就是简单的业务咨询和反问环节了,面完三面之后已经过了很久了,中间让我提交了一次附件材料,让我把获奖证书,奖学金证书什么的上传一下,说要进行评估,然后到现在也没啥消息,不过倒是不是很慌,三面的面试官就是推我进来的人,我俩有联系方式,我经常骚扰他问他进度,他给我的回复也都是还在蓝剑流程,所以也没有很慌哈哈哈哈,就看后续还有啥流程吧
查看12道真题和解析
点赞 评论 收藏
分享
评论
点赞
7
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务