腾讯大模型算法面经
1.项目经历
2.如何增强模型的多轮对话能力?
3.介绍MoE (混合专家)架构核心优势。
4.阐述大模型训练与推理的完整流程。
5. 对比 LORA 微调 Qwen 模型两种微调方式的性能表现。
6.FlashAttention v1 和 v2 的主要改进点分别是什么?
7.CoT(Chain-of-Thought)训练数据是如何构造的?
8.当前主流的强化学习算法有哪些?
9.代码:LeetCode 22,实现“括号生成”问题。
2.如何增强模型的多轮对话能力?
3.介绍MoE (混合专家)架构核心优势。
4.阐述大模型训练与推理的完整流程。
5. 对比 LORA 微调 Qwen 模型两种微调方式的性能表现。
6.FlashAttention v1 和 v2 的主要改进点分别是什么?
7.CoT(Chain-of-Thought)训练数据是如何构造的?
8.当前主流的强化学习算法有哪些?
9.代码:LeetCode 22,实现“括号生成”问题。
全部评论
相关推荐
八股战士0offer:虽然但是,你想表达的应该是学习如何agent工程里的提示词工程,而不是训练或者微调模型,这基本上是两个不同的方向。我认为学习agent主要就两个东西:提示词工程和上下文工程。像你说的prompt caching这种优化怎么能想到,建议多读大模型供应商尤其是anthropic的博客,anthropic大概一年前就有很详细的博客讲最佳实践和实现了 点赞 评论 收藏
分享
查看9道真题和解析