腾讯多模态算法二面-实习凉经

面试很难,还是要多多练习
1.项目拷打
2.酣畅淋漓的技术八股...
*-讲一下Wan(阿里的通义万相)的框架是什么
*-是否了解MM-DiT的框架
*-对于DiT,时间t是怎么注入的,AdaLN讲一下
*-了不了解VideoVAE是怎么训练的,用了什么损失函数,如果重建视频不清晰可以再加什么Ioss
*-KL散度具体的公式是什么样的?和交叉熵损失函数有什么区别联系
*-是否了解Flowmatching,具体是怎么做的,和DDPM的优劣
*-讲一下Classifier-Free Guidance
*-是否了解视频后训练怎么做的,GRPO是什么
*-你觉得对于训练一个视频基模,应该有哪几个流程,哪一步比较关键
*-训练过多大的模型,用了多少张卡
*-训练过程中是否遇到过不稳定的情况,本质上是因为什么
*-是否了解混合精度,FP16和BF16的区别
*-是否了解大模型训练中的几种并行(DP,PP,TP,EP)
3.手撕: 经典 multi-headattention
全部评论
是青云吗
点赞 回复 分享
发布于 03-24 08:21 美国

相关推荐

AI大模型算法,一环扣一环的拷打Transformer 基础详细介绍 Transformer 架构(Encoder-Decoder 结构、位置编码、FFN 等)Decoder 的因果注意力中,Q、K、V 分别来自哪里?→ Q 来自当前 Decoder 输入(已生成的 token 序列),K 和 V 也来自同一序列(需 mask 未来信息)Attention 为什么要 scaled?不做会怎样?为什么是√dₖ?→ 点积随 dₖ增大会让 softmax 进入饱和区,导致梯度消失;除以√dₖ可使方差稳定在 1(数学推导参考 Vaswani 论文)Transformer 如何加速推理?KV Cache 是什么?训练 vs 推理的并行性差异?→ 训练时所有 token 并行计算;推理时自回归,KV Cache 可缓存历史 K/V,避免重复计算,大幅提速多模态论文深挖(以 Video-LLaMA 为例)讲解 Video-LLaMA 的整体结构→ 视频编码器(如 ViT + Temporal Aggregator)→ 投影层(对齐文本空间)→ LLaMA 语言模型论文中 CoT(Chain-of-Thought)的具体设计?→ 在 prompt 中加入推理步骤示例(如 “视频中先看到人挥手,然后狗跑过来…”),引导模型分步作答微调 & 分布式训练微调用了 LoRA,介绍其原理→ 将权重更新 ΔW 分解为低秩矩阵 A×B,冻结原模型,只训练 A、B,大幅减少可训练参数LoRA 初始化怎么做?秩(rank)设为多少?为什么选这个值?→ A ~ N (0, σ²),B 初始化为 0;常用 rank=8 或 16,在效果和参数量间取得平衡(实验验证)知道 DeepSpeed 和 Megatron 吗?分别说说→ DeepSpeed(微软):主打 ZeRO 显存优化;Megatron-LM(NVIDIA):张量并行 + 流水线并行论文用 DeepSpeed,三个 Stage(ZeRO-1/2/3)分别是什么?→ Stage1:优化器状态分片;Stage2:+ 梯度分片;Stage3:+ 模型参数分片(通信换显存)二面下一篇再写吧,力竭了
查看10道真题和解析
点赞 评论 收藏
分享
评论
点赞
9
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务