字节AI算法 二面 好难啊

发点面经攒攒人品
1、你在线上或离线训练时,过拟合怎么处理?直接说你最有效的三个方法和拿到的收益。
2、把 BN 讲透:原理是什么;训练期和推理期用的统计量有何不同;跟 LN、GN 比,分别什么时候用、怎么取舍。
3、分类和回归你最常用哪些损失?你更偏好哪几个,为什么(从鲁棒性、梯度、数值稳定性上谈)。
4、L1 和 L2 正则你怎么选?它们各自的效果与风险是什么,工程里你是怎么权衡的。
5、二元和多分类的交叉熵你怎么写?在工程里你怎么做数值稳定实现。
6、AUC 到底在统计上代表什么?你怎么计算它,在线上业务里你如何解释“这次 AUC 提升”的含义。
7、你做 CTR/CVR/CTCVR 联合建模时,ESMM/ESMM2 是怎么推导与工程落地的?线上到底带来了什么收益。
8、Transformer 里因果注意力的 Q/K/V 各从哪来?Mask 具体怎么实现。
9、Scaled Dot‑Product Attention 为啥要除以 √dk?如果不除会出什么数值或训练问题。
10、把 Transformer / Decoder‑only 的整体结构过一遍,各个组件分别在干什么,有哪些常见变体。
11、位置编码这条线你怎么选:绝对 PE、相对 PE、RoPE 各自的思路、优势和局限,结合你的项目谈取舍。
12、长上下文怎么搞?Rope scaling、Position Interpolation、KV Cache 管理、检索增强、窗口注意力,你的实战方案是什么。
13、KV Cache 在训练和推理中的差异是什么?它的加速价值有多大,吞吐与延迟你是如何权衡的,vLLM/paged‑attention 需要注意什么。
14、PEFT 方案里(LoRA/QLoRA/Prefix/Prompt‑Tuning/Adapter)你怎么选?说说稳定训练的经验。
15、SFT 和对齐(RLHF/DPO/IPO/PPO)原理差在哪?在不同数据与资源条件下,你怎么选路线。
16、RAG 系统你怎么设计?切分、索引、召回/重排、压缩/融合、兜底策略怎么串。
17、提示词工程你是怎么搞的?System/角色/约束/分步指令怎么写,如何防越狱
全部评论
硕吗
点赞 回复 分享
发布于 04-06 20:50 广东

相关推荐

搜推+大模型算法一面面试题SFT & RL 方向先 answer 后 cot vs 先 cot 后 answer:两种 SFT 范式在训练效果上有什么差异?你是否做过对比实验?标注质量管控:如何保证人工标注数据的准确率达到预期标准?有哪些校验或质控手段?Checkpoint 选择:如何挑选合适的 SFT checkpoint,用于后续的 RLHF 阶段?多模态输入:图片是如何输入到 VLM 模型中的?一张图片通常会被编码为多少个 token?RL vs SFT:你认为强化学习(RL)和监督微调(SFT)的核心区别是什么?训练范式选择:为什么不直接从零开始做 RL,而是要采用「SFT → RL」的两阶段流程?RL 关键机制:什么是重要性采样?为什么在 RL 训练中要引入 CLIP 机制?策略类型差异:On-policy 和 Off-policy 算法的核心区别是什么?各自的适用场景有哪些?八股文(Transformer 基础)因果掩码作用:Transformer Decoder 中为什么必须使用自回归因果掩码?缩放点积注意力:为什么注意力分数要除以d​k​?(补充:Layernorm 前置后,除以d​可将方差归一到 1,避免 softmax 梯度饱和)推荐系统方向生成式推荐 vs 传统推荐:两者的核心区别是什么?生成式推荐的目标是什么?你如何看待它的未来发展前景?指标计算:AUC、HR、NDCG 的计算公式分别是什么?GAUC 和 AUC 的区别在哪里?编码方式:如何在模型中加入时间编码和位置编码?常用的位置编码方法有哪些?Coding:手撕 Multi-Head Attention(MHA) 实现二面面试题SFT & CoT 细节概率分布特性:在「先 cot 后 answer」的 SFT 范式下,为什么越靠后的 token 概率(prob)会越高?蒸馏噪声处理:用大模型蒸馏得到的 CoT 数据存在大量噪声,该如何缓解?VLM 幻觉问题:对 VLM 做 SFT 时,发现模型更信任文本信息,看图时反而容易产生幻觉,有哪些解决思路?RL 进阶PPO 核心:写出 PPO 中 GAE 的公式,并说明如何递归计算每个 token 的优势函数(advantage)?DPO 损失:写出 DPO 算法的损失函数公式?算法对比:GRPO 和 PPO 的核心区别是什么?GSPO 和 GRPO 又有哪些不同?训练稳定性:你遇到过 RL 中的熵塌缩(entropy collapse)和 reward hacking 问题吗?分别有哪些改进方法?最近有哪些新论文提出了新方案?采样困境:在采样类 RL 算法中,on-policy rollout 无法得到正确答案时该怎么办?自蒸馏:了解 Self-Distillation 吗?为什么要做自蒸馏?最近这方向有哪些代表性论文?震荡优化:RL 训练中 reward 或 loss 震荡严重,该如何调整?(提示:可从学习率 lr、KL 散度约束等方向入手)推荐系统进阶结构对比:HSTU 和 Transformer 结构的差异是什么?它和 OneRec 的整体流程有什么不同?SID 优化:如何降低 SID 碰撞率,同时提高特征利用率?量化算法:RQ-VAE 和 RQ-Kmeans 的算法原理分别是什么?OneRec 工程:OneRec 中是如何将 SID 加入模型词表和 tokenizer 的?多模态融合:如何更好地结合文本特征和多模态特征?模型演进:Rankmixer 是如何发展到 Tokenmixer 的?Coding:给定一个行内严格递增的 m×n 矩阵,找到矩阵中第 k 大的数
面试官最爱问的 AI 问...
点赞 评论 收藏
分享
评论
点赞
14
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务