字节九面挂面经(算法岗),持续更新

#互联网回暖,字节要招4000+人# 刚告诉我简历又被锁了,估计又要打复活赛了。这下面试爷是不虚了,爱过不过去****,反正过不过也不在于我,继续拷打字节。
就当面着玩了以后,趁还记得一些把之前面试的面经写一下回馈给牛油们,我也不算浪费时间。

7.22
某缺人部门海招ByteIntern,当时很多人都接到电话了,当时我也没面试过寻思就当练手了。后来才知道字节一直保留面评,当时要是知道就不面了。这一面个人觉得是最难的。
Transformer经典八股:
·Transformer结构
·手写自注意力然后问我Q,K,V的线性变换矩阵能不能共享权重,这个我现在也不知道能不能,问同学说能问GPT4说不能。
·为什么÷sqrt(dk)
·多分类损失函数 ——交叉熵;交叉熵里每一项的意义是什么?
·讲一下Adam优化器的原理以及优化过程
·八股记不得了,手撕lc84,面了快40次唯一一个考hard的

8.5 第二面(ByteIntern一面)
还是ByteIntern,当时是在官网随便投的,没想到被看到了。部门是做AI评估音乐的,一面面试官说因为看到我简历上钢琴10级适合以及我本来就是做声学AI算法的感觉非常合适。
·问了点声学的知识,可能参考意义不大。梅尔频谱怎么来的,MFCC怎么来的,他们什么关系
·还是Transformer,自注意力。问了一个cross attention,我当时都没听说过这啥,面完赶紧补习了一下,后来百度二面也问了。
·BERT和Transformer区别
·TTS相关的,FastSpeech和Tactorn区别。这个不是做语音合成、语音大模型相关的应该也没啥参考的
·手撕,手写一个带通滤波器对特定频段的声音加强;最长无重复子字符串

8.8 第三面(ByteIntern二面)
没太问八股
·怎么评价生成式模型生成的音乐(我项目里有一个用diffusion生成音乐的)的好坏
·KL散度
·Linux熟悉吗?我说我就会cd mkdir rm -rf
剩下的不记得了
·手撕,括号字符串是否合法,栈秒了

然后告诉我要加面,我可去你...
接下来的两轮技术面一轮是业务场景题,一轮是一个酷似《狂飙》里蒋天的人给我讲了一堆入职之后的事就没了,然后是HR面,就这么ByteIntern前后面了一个月后顺利“通过”了。期间我还面了网易的推荐算法实习,也过了,但是因为这个ByterIntern已经告诉我准备入职了我就推掉了....
然后offer审批了两周,字节HR打电话告诉我说那边说因为这是能转正的实习,看的表现符合预期但没有超出预期,所以没审核通过。我可阐释你的梦啊,生怕我转正是吧。
ICASSP截稿9.9,正好实验做完了,那几天光速写了一篇,反正就4页,快得很。

然后9.3被正式批捞了,一个叫用户增长(User Growth)的部门,我也不知道干啥的,去校招网站看会数据结构机器学习深度学习这些就行,那就面呗。HR加我微信问:"同学我看你都六面了啊而且面评也不错的,怎么回事啊?"是啊,怎么回事啊,你们企业传统艺能你都不知道吗?不过这回效率倒是快,秒锁我简历,我本来正和国际音乐那边的聊得不错准备内推我,结果发现已经被用户增长锁了,锁完就约面。

9.5 第七面(正式校招岗一面)
估计是看我之前算法八股考差不多了,开始考我数据结构啥的了
·知道哪些排序算法?时间复杂度都是多少
·哪些是空间换时间的排序算法?
·栈和堆的区别
·泊松分布和γ分布的区别(?woc开始考数学了)
·β分布和γ分布的关系
·卡方分布和γ分布的关系
·softmax公式
·AUC,机器学习里样本不均衡怎么解决,二分类的话如果负样本过多对AUC有什么影响,sigmoid的平均值会怎么变
·手撕,最大子数组乘积,lc152

9.6第八面(正式校招岗二面)
这面我了个大草啊,拷打半天数学。
·线程和进程的区别(我草你就那么确定我学过OS吗,这真是我自己好奇自学的)
·C语言里临时变量怎么存的,全局变量怎么存的,临时变量可以用指针指向吗?我就记得当时学CASPP的时候临时变量是放栈里全局变量是放堆里,栈里的物理地址总变我估计是不能用指针指的,我就这么说的。
·手撕,给定先序遍历和中序遍历,输出后续遍历,递归秒了。
然后面试官直接放弃繁文缛节了,开始我面试以来最汗流浃背的一小时:“我看你学数学的,我得看看你数学基础怎么样”
这一部分参考意义其实不小,我PDD二面也考了贝叶斯估计,现在偏机器学习算法岗的岗位会有考
·多项式方程,怎么写程序求解? 直接懵了,这我把大二学数值代数的知识回想起来了,最后说出来牛顿迭代法,记忆恢复20%。好在没让我动手实现一个
·抛硬币,直到抛出两次正面停止,预计要抛多少次(求期望)。本来我信誓旦旦的写了一个求期望的级数,准备用级数求和再不济用高中的错位相减算,结果写到5次的时候汗流浃背了,发现这个表达式太难写了。最后努力回忆起上辈子的记忆用马尔科夫状态转移算求出来了。答案是6次,具体怎么算牛油们查一下就找到了,挺经典的题。
·抛10次硬币,4次正面,6次反面,求抛出正面的概率p的极大似然估计。我上早八,我都多少年没算过这东西了,开始边胡诌边说了,我说我记得这玩意是无偏估计....诶,无偏估计,那这东西算出来最后应该是2/5...最后倒果为因,从结果倒推推出来了极大似然估计的式子算出来了

9.11第九面(正式校招岗三面)
·lc31 下一个排列
·二分类问题的损失函数。 为什么是BCE?表达式是什么,为什么是这个形式?
答:因为交叉熵是凸的,好优化;另外交叉熵和KL散度之间差了个目标分布的熵,优化BCE就是减小KL散度,让预测分布和目标分布差距减小。面试官连连称好虽然没有luan用
表达式一开始写完少写了个符号,提醒我之后写出来了。

9.12因风格不融洽(nm$l),三面挂,我去问了一下之前国际音乐的HR能不能给我推进进程,她告诉我发现我又被锁简历了,这次是机器学习算法岗的,哥们又要打复活赛了。这回爱过不过,全当去给牛油们更新热乎的面经了。
全部评论
已经分不清字节是要你还是耍你了
25 回复 分享
发布于 2024-09-13 19:15 广东
这是真大佬啊,我也字节三周目轮回了
5 回复 分享
发布于 2024-09-13 21:36 广东
我字节也重生三次了 整个秋招几十场面试就挂了三次 字节贡献了两次
4 回复 分享
发布于 2024-09-17 20:20 北京
离谱,加油!
3 回复 分享
发布于 2024-09-13 08:41 陕西
太强了佬,吸取深度学习知识,嵌入式的估计后续面试要拷打ai模型了😅
1 回复 分享
发布于 2024-09-19 23:48 浙江
逆天的难度
1 回复 分享
发布于 2024-09-19 00:37 浙江
太逆天了,字节。
1 回复 分享
发布于 2024-09-15 01:56 福建
大佬一面后是当天约面的吗
1 回复 分享
发布于 2024-09-13 17:00 北京
看乐了,我纯摆子过两天面字节,编程稀烂结果告诉我手撕有难度,临时抱佛脚刷力扣。看面经减压不少,过不了就算😂
点赞 回复 分享
发布于 2024-09-23 05:43 北京
哈人,难怪我面不上字节😅
点赞 回复 分享
发布于 2024-09-13 22:39 广东

相关推荐

很多人问我如何准备大模型的面试,分享下我的经验,针对两种情况:1. 有大模型实习2. 无大模型实习针对无大模型实习的情况,我建议先找一段中厂实习为主,比如 zhipu、Minimax (当然有大厂进大厂)这些,相对容易进,尽量积累大模型实习经历。针对有大模型实习的情况,复习内容为:1. 常规八股(transformer、bert 等)2. 最新八股(GQA 等)3. 技术报告(一定要自己看原PDF,目前推荐 DeepSeekV3, R1, kimi1.5, Minimax-01, Qwen2.5, Qwen2.5-VL)4. 手撕 Leetcode:Hot1005. 手撕模型,比如 MHA 这些首先是常规八股和最新八股,这一部分可以自己找找网上资料,整理好的,背。然后是技术报告,目前推荐的内容有:1. DeepSeekV3:必读2. DeepSeekR1:必读3. Kimi1.5:选读4. Minimax-01:选读,据我所知最长上下文模型(外推到 4M,不过好像被 LLama4 的 10M 超过了)5. Qwen2.5:必读6. LLama3.1:必读7. Qwen2.5-VL(如果简历有多模态内容):选读重点关注:1. 阶段训练(预训练几段、Post-training 几段?上下文用了多少?数据配比是什么?)2. 模型创新点(MHA 创新是什么?作用是什么?)3. 上下文优化创新点(一般是优化显存和阶段训练)4. 多模态优化创新点(简历有多模态内容)5. 几个模型不同之处(比如 Qwen2 和 Qwen2.5 的不同之处)最后是手撕,Leetcode 只刷 Hot100 够了,模型手撕建议关注(我目前会的):1. MHA2. LayerNorm3. Transformer Encoder (MHA+LayerNorm+FFN)4. PE(绝对位置编码)5. ROPE6. SwiGLU7. RmsNorm每次面试前快速过一遍就 ok 了。
喜欢吃卤蛋的托尼of...:大佬想问下项目该怎么准备
查看19道真题和解析
点赞 评论 收藏
分享
评论
51
115
分享

创作者周榜

更多
正在热议
更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务