AI Infra面经 攒人品版

继续来分享下之前的面经~欢迎友好讨论,信息共享
1️⃣算法题:手撕内存池(要求支持类似new Foo[], delete []功能),c++如何比较两个float是否相等,LRU,岛屿个数,二叉树的层序遍历,hamming weight,k-coverage intervals

2️⃣torch手撕题: LoRA adapter

3️⃣cuda手撕题:
1- 支持torch broadcast的4D tensor的elementwise mul
2- A: (1, 256),  B: (256, 128),  C: (128, 256) ,计算 (A * B) * C
3- Embedding Sparse Feature Pooling:A是 100 万个离散 ID(0~999),B是 100 万个float,计算个长度为1000的float数组C,C[i] = \sum_{j s.t. A[j] = i} B[j]

4️⃣ai infra或算法八股:
1- llm的知识蒸馏放在预训练做是否合适
2- Hopper TMA的优点,调用方式,是否需要经过L1
3- Flash Attention v2为什么外层对Q循环,Flash Decoding的combine kernel耗时占比大概是多少
4- Mooncake kv-cache centric的PD分离
5- Dit的推理框架设计思路和LLM的有什么异同
6- 分析MLA decode的计算访存比,它和seqlen、batch size是否相关
7- diffusion model的训练和推理步骤,推理num_inference_steps为40时,为什么训练的timesteps仍要设成1000
8- 介绍dLLM,如何看待它和AR的区别
9- torch.repeat 和 torch.expand的区别
10- torchrun的启动参数有哪些,如何在Linux上批量kill包含torchrun的进程
全部评论

相关推荐

03-25 11:22
已编辑
门头沟学院 算法工程师
📍面试公司:京东infra一面(更新2026/03/25已挂)🕐面试时间:2026/03/23💻面试岗位:ai infra❓面试问题:零、查户口,问我啥时候毕业,哪里人,哪个专业,手头上有没有offer,面过其他什么公司?(简历上有但是会问)一、项目拷打(十分钟)二、八股(二十五分钟)1、讲一下大模型推理优化有些方法?                                      ——(这个问的很宽泛,可以从各方面回答)2、你刚刚说到有pageattention,这个具体是什么?               ——(上个问题的追问)3、Flashattention为什么能加速,计算过程是什么?4、你有讲到PD分离机制,那么如何实现调度队列?5、PD分离的时候chunk prefill是指同一个请求的PD插入吗?      ——(这里回答说A的prefill chunk过程中插入B的decoder,而不是A的decoder)6、C++的多态如何实现?7、你刚刚说的虚函数是怎么实现多态的,请具体说说看?8、你说了虚函数表,那么虚函数表里面的函数顺序是怎么样的?是按照声明顺序吗?   ——(这个问题我没答好)三、手撕(快排)(十五分钟)没写出来😭,其他排序都会写,就这个忘了,我又炸了。。。。。。/(ㄒoㄒ)/~~四、反问1、公式一问(我今天表现怎么样?对我有什么建议吗?)答:整体表现还可以,快排写不出来很不应该,我们这边很重视这个代码能力。(意思是寄/(ㄒoㄒ)/~~)2、他都这么说了,我也不好意思再问下去了。🙌面试感想:大概是寄了,就当积攒经验了,还有26届的同学还在找工作吗,可以交流交流看看。
查看10道真题和解析
点赞 评论 收藏
分享
评论
1
11
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务