大厂面经|字节大模型算法岗

✅一面
1️⃣深挖多模态论文
2️⃣介绍transformer架构
3️⃣详细说一下Decoder的因果注意力 QKV分别来自哪
4️⃣Attention为什么要做scaled 不做会怎么样 为什么用根号d_k
5️⃣Transformer怎么做加速训练(KV缓存) 训练和推理有什么区别(并行化)
6️⃣深挖多模态大模型论文用的video-llama 讲一下大模型的结构
7️⃣论文用了CoT讲一下论文的CoT是怎么样的
8️⃣微调用的LoRA介绍一下LoRA
9️⃣LoRA初始化怎么做的,用的秩是多少,为什么不选其他的数
1️⃣0️⃣知道deepspeed和megatron吗?分别介绍一下
1️⃣1️⃣论文用的deepspeed详细讲了一下三个stage分别是什么
✅二面
1️⃣深挖多模态和大模型的论文
2️⃣Decoder文本生成有哪几种方法
3️⃣还知道哪些多模态大模型
4️⃣介绍一下ALBEF、BLIP
5️⃣BLIP2的结构是什么  两阶段怎么训练的 有哪些损失
6️⃣知道PEFT吗 讲一下LoRA
7️⃣还有什么微调方法 -> prefix-tuning和P-tuning 两者分别是怎么做的 为了解决什么提出的
8️⃣后面就是一些场景题
✅三面
1️⃣深挖论文
2️⃣讲一下multi-head attention 用pytorch手撕一下 要可以实现cross attention的
3️⃣讲一下你用的大模型是什么结构 特征是怎么喂给大模型的
4️⃣大模型训练为什么不用SFT
5️⃣LoRA是什么?有什么好处
6️⃣知道RLHF吗?讲一下训练流程
7️⃣接下来就是好几个场景题,电商相关的,用大模型解决prompt应该怎么设计,怎么处理prompt的输出,怎么过滤错误格式的输出
📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
全部评论

相关推荐

面的是字节的国际电商部门感觉是卷中卷了被狠狠拷打了😭面试问题:- 解释一下ROC曲线与PR曲线的关系、ROC曲线与PR曲线的适用场景- 介绍一下贝叶斯定理(贝叶斯公式和全概率公式)- 考了一个概率题:已知一个随机发生器,生成 0 的概率为  p ,生成 1 的概率为  1 - p 。请构造一个新的随机发生器,使其生成 0 和 1 的概率均为 1/2。- (针对简历提问)了解矩阵分解吗 MF、LFM吗- 训练模型的时候,怎么才能知道模型是不是过拟合了?除了看训练集和测试集的准确率,还有哪些方法可以防止过拟合?比如正则化、交叉验证这些,能不能展开讲讲怎么用?- 推荐系统里老听到CTR预估和序列推荐模型,讲讲这些模型是干啥的?比如DIN、DIEN这些CTR模型是怎么捕捉用户兴趣的?还有GRU4Rec、Caser这些序列模型是怎么处理用户行为序列的?它们各自解决了什么问题?代码题:- 给定整数数组 nums,求最大和的连续子数组,并返回该最大和。(最大子数组和LeetCode53)- 手写一个二分类交叉熵bce,使用np(只把bce的公式写出来了,然后拷打怎么计算梯度,最好熟悉一下二分类梯度怎么回传的,被拷打到了这里)一面一般是组内员工,平时比较忙,这场面试约在的中午11点,所以如果能够把你的项目介绍得详细一点,就容易不让面试官问太多问题,一般我大概是2-3min自我介绍,然后再10min介绍一个项目(2-3个项目说完差不多就去一大半面试时间了),然后最后面试官不是主动型+忙着去吃饭,就会问些常见的面经,然后碰巧见过的爆率很高,然后直接吟唱。这里拷打了概率类型的问题,印象里至少有4/32次面试提到了类似的概率场景题目,建议也是稍微复习一下,至少看看基础的内容。国际电商(tiktok)据说晋升不错(同时也卷),毕竟是出海业务,但是是真的难进(听说很多清北大佬都挂了),不太懂想要招什么人(岗位名额实在太少)  
查看8道真题和解析 面试问题记录
点赞 评论 收藏
分享
今天老师整理了大模型入门的几个学习步骤、目标和需要掌握的基础知识,供初学者快速掌握基本路径。1️⃣前置知识: Python 基础、 Linux 基础🌟学习内容1.熟练掌握 Python 语言,熟悉常用的Python 库和工具,如 NumPy 、 Pandas 、  Scikit - learn 、 PyTorch 等。2.具备 NLP 相关的基础知识,包括文本预处理、分词、词性标注等。3.对大模型有一定了解,包括Transformer 模型的结构和原理、基于注意力机制的自然语言处理技术等。2️⃣Step1:NLP相关基础知识🌟学习内容1.了解文本预处理、分词、词性标注、命名实体识别、词向量表示等基础知识。2.掌握机器学习中的数据预处理、特征提取、分类、回归等基础算法,并了解其在 NLP 领域的应用。3.了解大规模 NLP 任务中的常用技术和方法,如深度学习中的 Transformer 模型、 BERT 、 GPT 等。3️⃣Step2:GPT API 调用及 Prompt 设计🌟学习内容了解 GPT API 的调用方式和基本操作,熟悉 Prompt 设计技巧和要点,能够结合自己的任务调用 API 实现对应的任务代码。4️⃣Step3:模型微调( Fine - tuning )🌟学习内容了解常见的微调模型的基本流程和原理,熟悉数据集的构造、训练、评估等过程,能够独立构建 QA 对,在服务器上对模型进行微调。5️⃣Step4: RAG (外挂数据库)🌟学习内容RAG 作为目前最火的一个 LLM 落地方向,可以结合私有数据(表格、 word 、 txt 、 pdf 、数据库皆可)实现本地问答,且训练成本较低,可以快速实现效果。✴️有需要提升面试能力和辅导项目的同学可以后台联系我~
点赞 评论 收藏
分享
评论
9
53
分享

创作者周榜

更多
牛客网
牛客企业服务