腾讯实习 大模型算法 一面面经

给我面没招了,发点面经攒攒人品~
1.介绍一下你的实习经历和主要工作内容。
2.在微调大模型时,你使用过哪些框架?它们的优缺点分别是什么?
3.CLIP 模型的 zero-shot 能力是如何实现的?它在多模态任务中的应用有哪些优势?
4.Transformer 中 Pre-Norm 和 Post-Norm 的设计差异是什么?对模型训练稳定性和性能有何影响?
5.在生成式大模型中,为何通常采用 Decoder-only 架构而非 Encoder-Decoder 结构?
6.请描述大模型中自然语言理解模块的具体实现方案,包括语义解析和意图识别的关键技术。
7.针对 Transformer 模型推理过程,你会采用哪些优化手段?
8.请阐述RAG的核心原理,并说明如何通过 RAG 缓解大模型的幻觉问题。
9.vLLM 框架的核心优化原理是什么?其在动态批处理和显存管理上有哪些创新设计?
10.请对比 RLHF、PPO、DPO 算法的技术差异、优缺点及适用场景。
全部评论
全是八股?面试官都不拷打项目吗
点赞 回复 分享
发布于 昨天 09:54 广东
没手撕环节吗
点赞 回复 分享
发布于 03-10 11:28 广东

相关推荐

评论
1
8
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务