拼多多Java服务端开发面经

#拼多多##发面经攒人品##拼多多求职进展汇总#
正式批,timeline:9月14号笔试,9月20号上海pdd总部线下面试,9月28号意向。
整体面试体验挺好的,面试官们都比较随和,而且遇到没答上来的知识点还会给我讲清楚。其实我整体表现并不好,第一轮面试面完我就感觉可能要挂了,没想到还能四轮速通
一面大概50分钟:
1.自我介绍
2.InnoDB的索引介绍一下
3.有张表中有个varchar字段,我现在想扩容,底层是怎么做的
4.有两张表,各有1t数据,我想查找这两张表中相同元素,内存4G,怎么做
5.两张大表之间join,怎么优化速度
6.hession序列化算法底层实现
7.Zookeeper底层逻辑,如何注册发现的
8.zookeeper大批量读写怎么优化,会不会宕机
9.zk集群之间数据怎么共享
10.手撕——哈希表
11.反问
--------------------------------------------------
面完去大厅等着,如果通过了会有面试官叫名字,如果没通过会有hr跟你说面试结束了,我当时慌得很,等待了大概五分钟,来了二面,二面一小时十分钟左右:
1.自我介绍
2.知道的设计模式说一下
3.InnoDB索引底层、主从复制怎么做的
4.Redis持久化怎么做的,RDB和AOF怎么选择
5.Redis为什么用多线程做IO,相比于单线程快在哪里
6.Redis的zset为什么用跳表而不是红黑树
7.java的treemap为什么用红黑树而不是跳表
8.AOP和IOC说一下,为什么要用这两个特性,优势
9.Git源码看过吗,rebase和merge的区别,什么时候用
10.项目找一个最有特点的介绍一下
11.es倒排索引介绍一下
12.反问
--------------------------------------------------
二面我感觉答的还可以,比一面好一点,又在外面等了五分钟,三面,三面持续一小时,看似问题比较少,但是每个问题我都会讲很久:
1.自我介绍
2.讲一下小论文
3.讲一下实验室项目,分别做了什么,团队多少人,什么分工
4.讲一下实习经历,都干了什么活,团队多少人
5.Redis为什么这么快
6.手撕——找出数组中所有和等于target的子数组(滑动窗口)
7.反问
--------------------------------------------------
我面完三面已经五点多了,等候大厅一个人都没有了,又在外面等了一会,hr面大概20分钟:
1.自我介绍
2.介绍一下实习的项目背景
3.Base地有没有限制
4.上海的公司投了那些
5.有没有流程比较靠后的
6.找工作的期望
7.薪资期望
8.接不接受拼多多的强度
9.反问
--------------------------------------------------
总体体验很棒,虽然拼多多强度挺大的,但是给我发了嫡长意向,还是非常想去的
#牛客AI配图神器#
全部评论
校友同一天面试了
点赞 回复 分享
发布于 2025-11-13 18:58 上海
四轮速通,大佬太强了!
点赞 回复 分享
发布于 2025-11-12 12:02 浙江
恭喜大佬收获意向!🎉
点赞 回复 分享
发布于 2025-11-12 12:02 上海
学长tql
点赞 回复 分享
发布于 2025-11-11 20:16 上海
牛啊
点赞 回复 分享
发布于 2025-11-11 17:51 广东

相关推荐

继续来分享下之前的面经~欢迎友好讨论,信息共享1️⃣算法题:手撕内存池(要求支持类似new Foo[], delete []功能),c++如何比较两个float是否相等,LRU,岛屿个数,二叉树的层序遍历,hamming weight,k-coverage intervals2️⃣torch手撕题: LoRA adapter3️⃣cuda手撕题:1- 支持torch broadcast的4D tensor的elementwise mul2- A: (1, 256),  B: (256, 128),  C: (128, 256) ,计算 (A * B) * C3- Embedding Sparse Feature Pooling:A是 100 万个离散 ID(0~999),B是 100 万个float,计算个长度为1000的float数组C,C[i] = \sum_{j s.t. A[j] = i} B[j]4️⃣ai infra或算法八股:1- llm的知识蒸馏放在预训练做是否合适2- Hopper TMA的优点,调用方式,是否需要经过L13- Flash Attention v2为什么外层对Q循环,Flash Decoding的combine kernel耗时占比大概是多少4- Mooncake kv-cache centric的PD分离5- Dit的推理框架设计思路和LLM的有什么异同6- 分析MLA decode的计算访存比,它和seqlen、batch size是否相关7- diffusion model的训练和推理步骤,推理num_inference_steps为40时,为什么训练的timesteps仍要设成10008- 介绍dLLM,如何看待它和AR的区别9- torch.repeat 和 torch.expand的区别10- torchrun的启动参数有哪些,如何在Linux上批量kill包含torchrun的进程
查看21道真题和解析
点赞 评论 收藏
分享
评论
9
22
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务