网易大模型应用岗(已offer)
一面:
1. 自我介绍,讲论文和实习。
2. Transformer自注意力机制、位置编码、梯度消失/爆炸的解决方案。
3. 微调方法对比(Full Fine-tuning vs. LoRA/Adapter/P-Tuning)。
4. 推理加速技术(量化、动态批处理、FlashAttention)。
5. 如何优化大模型在长文本生成中的显存占用?
6. RLHF中奖励模型(RM)的训练数据如何构建?
7. 为网易云音乐设计一个AI歌词生成系统,如何提升创意性和押韵效果?
8. 模型剪枝/量化(GPTQ、AWQ)、服务化框架(FastAPI+vLLM)。
9. 如何解决大模型API服务的响应延迟问题?
一面八股挺多的,问的知识点也非常多,主要考察对大模型的理解,整体来说难度不算大,复习熟记八股应该都比较好答。
二面:
1. 自我介绍,讲论文和实习。
2. LayerNorm和BatchNorm在大模型中的区别?为什么Transformer用LayerNorm?
3. 解释大模型训练中的“灾难性遗忘”现象及解决方法。
4. 如果微调后的模型过拟合,你会如何调整?
5. 如何评估一个对话系统的生成质量?
6. 如何用大模型提升网易新闻的推荐效率?
7. 设计一个游戏内AI陪玩系统,需考虑哪些模块?
8. 领域适配时,如何构建高质量的垂域训练集?
9. 你在项目中如何解决数据稀缺问题?
10. 模型上线后遇到了什么性能瓶颈?如何优化的?
建议:精读《Attention Is All You Need》、HuggingFace文档。如果没有大模型项目,可用Kaggle/开源项目复现(如LangChain应用)。 #AI面试问题分享#
1. 自我介绍,讲论文和实习。
2. Transformer自注意力机制、位置编码、梯度消失/爆炸的解决方案。
3. 微调方法对比(Full Fine-tuning vs. LoRA/Adapter/P-Tuning)。
4. 推理加速技术(量化、动态批处理、FlashAttention)。
5. 如何优化大模型在长文本生成中的显存占用?
6. RLHF中奖励模型(RM)的训练数据如何构建?
7. 为网易云音乐设计一个AI歌词生成系统,如何提升创意性和押韵效果?
8. 模型剪枝/量化(GPTQ、AWQ)、服务化框架(FastAPI+vLLM)。
9. 如何解决大模型API服务的响应延迟问题?
一面八股挺多的,问的知识点也非常多,主要考察对大模型的理解,整体来说难度不算大,复习熟记八股应该都比较好答。
二面:
1. 自我介绍,讲论文和实习。
2. LayerNorm和BatchNorm在大模型中的区别?为什么Transformer用LayerNorm?
3. 解释大模型训练中的“灾难性遗忘”现象及解决方法。
4. 如果微调后的模型过拟合,你会如何调整?
5. 如何评估一个对话系统的生成质量?
6. 如何用大模型提升网易新闻的推荐效率?
7. 设计一个游戏内AI陪玩系统,需考虑哪些模块?
8. 领域适配时,如何构建高质量的垂域训练集?
9. 你在项目中如何解决数据稀缺问题?
10. 模型上线后遇到了什么性能瓶颈?如何优化的?
建议:精读《Attention Is All You Need》、HuggingFace文档。如果没有大模型项目,可用Kaggle/开源项目复现(如LangChain应用)。 #AI面试问题分享#
全部评论
相关推荐

查看7道真题和解析