字节大模型二面面经(持续记录!!

面试的部门是字节seedlm
二面感觉面试官很和善

面试问题:
- transformer 的 decoder 和 llama 有啥区别,他们的位置编码有啥区别? 三角函数位置编码和 ROPE 公式很像啊,他们是怎么实现不同的功能?(一个加 embedding 一个加 KQV,但是公式很像但是推理完全不一样吧,不太会答)
- 介绍一下RLHF流程,包括哪几步
- llm有哪些评估指标?如何评估模型?
- lora原理细节,为什么可以加速?什么是秩?
- reward bench上的reward model分哪几类?reward model如何训练的,训练目标是什么?
- dpo训练的损失函数和训练目标,dpo如何改进
代码题:
- 给定长度为 n+1 的数组 nums,其中元素取值范围为 [1, n],求唯一的重复数。
- 手写多头注意力mha,写完后让加位置编码(因为之前写过了,继续吟唱)
全部评论
需要面经的戳我😋
点赞 回复 分享
发布于 04-08 12:26 上海
大佬 可以分享下面经的那些东西吗?本人一直在做大模型sa想跳,但还是想看下整理好的面经
点赞 回复 分享
发布于 04-07 14:31 广东

相关推荐

05-08 17:04
已编辑
浙江大学 算法工程师
面试问题:- (针对简历提问)你工作里主要关注哪些指标?解释一下AUC含义、计算和作用- 主流的开源大模型结构有哪些?(prefix decoder,casual decoder、encoder-decoder)- 介绍一下layernorm和batchnorm的区别?- 在机器学习里,怎么处理长尾数据和多峰数据?- 怎么解决模型的冷启动问题,你觉得LLM在冷启动方面能够起到什么作用?- 介绍一下常见的优化算法(SGD ->Adagrad ->RMSProp ->Adam -> AdamW)?优缺点- 为什么Adam不一定最优而SGD最优的?怎么理解分析?- (针对简历提问)你工作里的对比损失是怎么构造的,有什么作用?介绍常见的对比损失的公式。代码题:- 数组第K大。给定整数数组 nums 和整数 k,请返回数组中第 k 个最大的元素。(力扣215原题)- 手写对比损失的计算(结合项目),并简单说了一下原理。(大概写出来就好)二面我这个是交叉面,提问的有部分设计大模型,也当然我简历上有大模型,所以问了一些llm+搜推的内容,但这部分交叉问题比较浅,能说个大概就很好,同时也有很多经典的机器学习面经问题。因为项目里提到了对标学习,所以面试官在代码考核部分让我写个示例,所以写进简历的一定要准备好(包括流程步骤,代码实现大概要清楚)。面广告算法的岗位,机器学习面经暴率很高,建议熟背,就算是看过有印象,问到的时候也会基本很稳。
点赞 评论 收藏
分享
评论
2
25
分享

创作者周榜

更多
牛客网
牛客企业服务