美团到家 Java后端 一二面面经(已oc)

感觉各个大厂并不歧视转码选手,反而一些中小厂总盯着我非科班嫌弃,面试都不给

面试撕题是核心代码模式

今天一早起来刷状态回到人才库了,但是上午居然收到了oc,我还问"你确定吗?我这儿看状态已经回到人才库了"。hr小姐姐确认了一下,说是系统过期不操作会自动回库,已经给我改回来到正常流程了。直接接了。但是书面offer邮件还没到,据说得等等

怎么状态还是「面试中」啊,要不是通话录音了真仿佛一场梦,醒来还是很感动,咋还不发邮件捏hhhh

4.4下午14:30收到邮件啦

3.22 一面

  1. 自我介绍
  2. 用户态内核态?
  3. rpc过程和这两个态的关系
  4. 用户态如何切换内核态?
  5. 内核态如何回到用户态?
  6. 内存分段和分页
  7. 讲一下虚拟内存?虚拟内存有什么意义
  8. TCP的可靠性怎么保障的
  9. 怎么保证接收到的内容是正确的
  10. HTTPS校验的哈希算法是什么
  11. 一些实习问题:实习用的数据库版本?数据库怎么搭建的?怎么找到慢查询?怎么改进的?把大mysql语句拆成小的还是啥保留子查询?ES部署多服务器吗?ES版本?ES怎么打分的?讲一下倒排索引?用ES干啥了?怎么设置mapping?怎么设置索引?怎么自定义排序?
  12. rpc项目问题:你的rpc轮子怎么划分模块的(这个问题腾讯一面也被问过)你自定义的序列化方式偏向于Json还是Protobuf?这俩序列化有啥区别?和你的自定义序列化性能差异对比?怎么解决分包粘包?怎么注册注销?讲一下你的SPI实现依赖倒置?动态桩讲一下?可以客户端指定调用ip吗
  13. 写题,反转链表,但是只反转其中n~m

3.28 二面

  1. 自我介绍+到岗时间
  2. 写题,有效括号对(LC 20)验证二叉搜索树(LC 98)
  3. 计算机网络分层模型
  4. HTTP协议的组成?报文格式?头和body如何分割?cookie在哪一部分?如何让请求携带cookie?
  5. HTTP 2.0和HTTP 1的区别?
  6. 什么是队头阻塞?2.0为什么不用UDP?
  7. 虚拟内存的作用?(这是看到一面记录这个问题答的不好才问的)
  8. 如何判断在swap区还是在内存中?
  9. top指令怎么评估内存的占用?CPU占用会超过100%吗?如何限制CPU利用率在100%之下?
  10. 知道Docker吗?(不会,就没接着问)
  11. 讲几个熟悉的数据结构和复杂度?
  12. 链表的具体应用场景
  13. 数组的物理空间连续吗
  14. CPU的架构(不知道,面试官提醒是SMP)
  15. L1、L2、L3 Cache读取数据的时间量级(没答上来)
  16. 单例是什么?怎么创建
  17. Jmeter压测有哪些模式
  18. zookeeper了解吗,讲讲主要用途
  19. JWT讲一下?包含哪几个部分?怎么计算的?
#美团##面经##Java#
全部评论
沾沾喜气!!
9 回复 分享
发布于 2023-04-04 09:37 江苏
为啥还有这种操作,我也是几天回库加感谢信,不过估计你是被本部门捞了吧
3 回复 分享
发布于 2023-04-07 18:36 湖南
沾沾喜气
2 回复 分享
发布于 2023-04-04 16:07 浙江
的确,加油,大厂很给机会,非科班也给笔试机会
1 回复 分享
发布于 2023-04-09 18:50 香港
恭喜🎉,沾沾喜气
1 回复 分享
发布于 2023-04-04 00:20 江苏
佬,求内推可以吗
点赞 回复 分享
发布于 2024-04-09 18:21 上海
m
点赞 回复 分享
发布于 2024-03-11 02:50 贵州
怎么感觉问的都是操作系统和网络
点赞 回复 分享
发布于 2023-05-29 20:10 江苏
一面的第10题怎么回答
点赞 回复 分享
发布于 2023-05-21 17:44 河南
沾沾喜气!!!
点赞 回复 分享
发布于 2023-04-17 08:44 北京
沾沾喜气
点赞 回复 分享
发布于 2023-04-12 09:04 上海
同学base哪里?北京吗
点赞 回复 分享
发布于 2023-04-09 11:09 广东
大佬是什么部门呀
点赞 回复 分享
发布于 2023-04-07 15:11 北京
算法题是ACM吗,链表是怎么处理输入输出的呀
点赞 回复 分享
发布于 2023-04-06 21:52 广东
沾沾喜气
点赞 回复 分享
发布于 2023-04-06 16:42 重庆
沾沾喜气
点赞 回复 分享
发布于 2023-04-06 15:21 陕西
沾沾喜气
点赞 回复 分享
发布于 2023-04-06 09:42 陕西
恭喜恭喜!学习一个!
点赞 回复 分享
发布于 2023-04-05 21:13 泰国
沾沾喜气
点赞 回复 分享
发布于 2023-04-05 12:44 上海
人才库中,沾沾喜气
点赞 回复 分享
发布于 2023-04-05 10:11 辽宁

相关推荐

05-16 09:55
腾讯_HR
腾讯-混元大模型面经-华5硕-主页内tui❗❗腾讯26届春招提前批/26届暑期实习生/日常实习生/25届补录招聘启动 | 所有专业类型均有岗位🏅中国民营企业500强排行榜第6位【在招岗位】1. 技术类:软件开发、技术运营、安全技术、测试与质量管理、技术研究、解决方案与服务、硬件开发2. 产品类:游戏产品、内容制作、通用产品、金融产品、项目管理3. 设计类:游戏美术、平面交互4. 市场类:战略投资、市场营销、公共关系、销售拓展5. 职能类:财经分析、人力资源、法律与公共政策、行政支持【招聘范围】应届生(24届、25届可投)、实习生(在校生可投)、青云计划(23届/24届/25届博士、24届/25届硕士)【网申链接】https://join.qq.com/resume.html?k=ANQI6RfQ3rhPS2dpyIkeSw腾讯-混元大模型面经-华5硕部门与岗位:TEG - 混元大模型团队 - 大模型对齐一面自我介绍,过实习,讲论文,论文过的比较细,有说的笼统的地方面试官会实时进行询问交流了解哪些大模型,简要挑一两个介绍一下,当时说了 Qwen 和 DeepSeek,然后面试官又问了这两个有什么区别接着上一问,为什么大家都开始探索 MoE 架构,MoE 相比 Dense 有什么好处在之前实习的时候用 LoRA 微调过 Qwen,于是问了有没有全量微调过,有没有对比过两者的性能表现讲一下大模型训练和推理的流程,SFT 和 RLHF 的作用分别是什么在 RLHF 中,目前主流的强化学习算法有哪几个,写一下损失函数的表达式代码:22. 括号生成代码:多头自注意力一面问的八股还是比较多的,问的也比较细,而且还写了两道代码题,整个面试花的时间也比较多,大概一个半小时左右二面自我介绍,过实习和论文,面试官会一起进行探讨,包括工作的动机、贡献和结果,也会提一些问题和建议之前实习用 DeepSpeed 微调过 Qwen2-72B,于是面试官问了 ZeRO-1,ZeRO-2,ZeRO-3 三个模式的区别当时你用 DeepSpeed ZeRO-3 来微调 Qwen2-72B,每一张卡占用的显存大概是多少,估算一下为什么是占这么多的显存除了 DeepSpeed,还用过其他的什么优化方法吗我看你也用到了 LoRA,知道 LoRA 的原理吗,A 和 B 两个矩阵怎么初始化,有了解过其他的初始化方法吗对 RLHF 了解的多吗代码:3. 无重复字符的最长子串二面更多的是结合具体的工作来问的,从用到的东西来引出问题,问的也比较灵活。当然因为部门主要是做对齐的,所以也大概聊了聊 RLHF三面自我介绍,挑一个觉得做的比较好的论文和实习讲一下,面试官问的比较详细,为什么选现在这种方案,为什么 work,其他方案有考虑吗在微调 Qwen 的时候,数据是怎么构造的,有用到什么数据清洗方法吗,数据配比是怎么做的讲一下 RLHF 的流程,之前有用 RLHF 做过模型对齐吗在做对齐的时候,为什么 SFT 之后还要做 RLHF,只用 SFT 可以吗知道哪些强化学习算法,除了 PPO 和 DPO 这些呢,DeepSeek 用的 GRPO 相比于 GPT 的 PPO 做了哪些改进开放题:对目前大模型的发展有什么看法代码:零钱的两个题 322. 零钱兑换518. 零钱兑换 II三面面试官更聚焦于对齐这一块的内容,考的比较深。由于之前没有接触过强化学习,答得还是比较吃力的,不过面试官还挺好的,会一起讨论来做引导四面自我介绍,过论文和实习,问的也比较细,这里能明显的感受出来面试官的视角更系统,会把这些工作串起来问我看你简历上没写 RLHF,平常有用过 RLHF 吗推导一下神经网络反向传播的过程一道排列组合的概率题开放题:你觉得大模型目前还有哪些可以改进的点四面整体更看重思维和基础,没有考察什么八股总结一共四轮技术面,整体来说强度比较大,对于大模型八股的考察比较细,对大模型的理解问的也比较深刻,包括一些数理逻辑基础,考察的比较全面腾讯-混元大模型面经-华5硕-主页内tui腾讯-混元大模型面经-华5硕-主页内tui❗❗腾讯26届春招提前批/26届暑期实习生/日常实习生/25届补录招聘启动 | 所有专业类型均有岗位🏅中国民营企业500强排行榜第6位【在招岗位】1. 技术类:软件开发、技术运营、安全技术、测试与质量管理、技术研究、解决方案与服务、硬件开发2. 产品类:游戏产品、内容制作、通用产品、金融产品、项目管理3. 设计类:游戏美术、平面交互4. 市场类:战略投资、市场营销、公共关系、销售拓展5. 职能类:财经分析、人力资源、法律与公共政策、行政支持【招聘范围】应届生(24届、25届可投)、实习生(在校生可投)、青云计划(23届/24届/25届博士、24届/25届硕士)【网申链接】https://join.qq.com/resume.html?k=ANQI6RfQ3rhPS2dpyIkeSw腾讯-混元大模型面经-华5硕部门与岗位:TEG - 混元大模型团队 - 大模型对齐一面自我介绍,过实习,讲论文,论文过的比较细,有说的笼统的地方面试官会实时进行询问交流了解哪些大模型,简要挑一两个介绍一下,当时说了 Qwen 和 DeepSeek,然后面试官又问了这两个有什么区别接着上一问,为什么大家都开始探索 MoE 架构,MoE 相比 Dense 有什么好处在之前实习的时候用 LoRA 微调过 Qwen,于是问了有没有全量微调过,有没有对比过两者的性能表现讲一下大模型训练和推理的流程,SFT 和 RLHF 的作用分别是什么在 RLHF 中,目前主流的强化学习算法有哪几个,写一下损失函数的表达式代码:22. 括号生成代码:多头自注意力一面问的八股还是比较多的,问的也比较细,而且还写了两道代码题,整个面试花的时间也比较多,大概一个半小时左右二面自我介绍,过实习和论文,面试官会一起进行探讨,包括工作的动机、贡献和结果,也会提一些问题和建议之前实习用 DeepSpeed 微调过 Qwen2-72B,于是面试官问了 ZeRO-1,ZeRO-2,ZeRO-3 三个模式的区别当时你用 DeepSpeed ZeRO-3 来微调 Qwen2-72B,每一张卡占用的显存大概是多少,估算一下为什么是占这么多的显存除了 DeepSpeed,还用过其他的什么优化方法吗我看你也用到了 LoRA,知道 LoRA 的原理吗,A 和 B 两个矩阵怎么初始化,有了解过其他的初始化方法吗对 RLHF 了解的多吗代码:3. 无重复字符的最长子串二面更多的是结合具体的工作来问的,从用到的东西来引出问题,问的也比较灵活。当然因为部门主要是做对齐的,所以也大概聊了聊 RLHF三面自我介绍,挑一个觉得做的比较好的论文和实习讲一下,面试官问的比较详细,为什么选现在这种方案,为什么 work,其他方案有考虑吗在微调 Qwen 的时候,数据是怎么构造的,有用到什么数据清洗方法吗,数据配比是怎么做的讲一下 RLHF 的流程,之前有用 RLHF 做过模型对齐吗在做对齐的时候,为什么 SFT 之后还要做 RLHF,只用 SFT 可以吗知道哪些强化学习算法,除了 PPO 和 DPO 这些呢,DeepSeek 用的 GRPO 相比于 GPT 的 PPO 做了哪些改进开放题:对目前大模型的发展有什么看法代码:零钱的两个题 322. 零钱兑换518. 零钱兑换 II三面面试官更聚焦于对齐这一块的内容,考的比较深。由于之前没有接触过强化学习,答得还是比较吃力的,不过面试官还挺好的,会一起讨论来做引导四面自我介绍,过论文和实习,问的也比较细,这里能明显的感受出来面试官的视角更系统,会把这些工作串起来问我看你简历上没写 RLHF,平常有用过 RLHF 吗推导一下神经网络反向传播的过程一道排列组合的概率题开放题:你觉得大模型目前还有哪些可以改进的点四面整体更看重思维和基础,没有考察什么八股总结一共四轮技术面,整体来说强度比较大,对于大模型八股的考察比较细,对大模型的理解问的也比较深刻,包括一些数理逻辑基础,考察的比较全面
点赞 评论 收藏
分享
评论
55
308
分享

创作者周榜

更多
牛客网
牛客企业服务