米哈游 大模型算法 实习二面 55min

攒攒人品!有面试过同岗的朋友欢迎评论区交流
1.项目拷打
2.你如何评估大模型的性能?有哪些常用的评估指标?
3.请描述一下你如何对大模型进行优化,以提高其性能和效率。
4.你是否有过使用或开发大模型的经验?请分享一个具体的案例。
5.大模型中的注意力机制是如何工作的?它在大模型中起到了什么作用?
6.大模型中的优化算法有哪些常见的选择?它们各有什么优缺点?
7.如何处理大模型训练过程中的梯度消失或梯度爆炸问题?
8.在大模型设计中,如何权衡模型的复杂度和性能?
9.面对大模型训练和推理所需的庞大计算资源,你有什么解决建议?
10.请简述你了解的大模型的主要结构特点。
11.reward bench上的reward model分哪几类?
reward model如何训练的,训练目标是什么?
13.dp0训练的损失函数和训练目标,dpo如何改进怎么理解大模型安全,包含哪些方面的内容?
全部评论

相关推荐

给我面没招了,发点面经攒攒人品~1* 项目拷打2* 项目的数据来源是什么?你是如何确定优化目标的?3* 比如数据从 100 条扩充到 1.2 万条,是否全通过自动化生成?生成的样本具体是什么样的?举个例子说明一下生成前后的对比4* 怎么保证自动化生成数据的正确性呢5* 在通过调整参数直到模型回答正确为止的过程中,是否意味着生成的CoT中存在错误逻辑?6* 经过数据清洗后,最终用于SFT的有效数据量是多少?7* 在做微调时,除了 LoRA 是否对比过其他的微调算法8* 你是如何评价微调效果的?测试集的比例是多少?微调前后的准确率分别是多少?原有的模型性能保留了多少?9* LLM常用的结构是什么?10* 说一下Transformer 的整体结构11* 目前主流大模型最常用的位置编码是什么?。12* 写一下多头注意力机制的数学公式。13* 公式中为什么要除以 \sqrt{d_k}?其对梯度消失或梯度爆炸有什么影响?14* 在 Transformer 的 Encoder 和 Decoder 中,哪些部分是可以并行计算的,哪些不可以?15* 除了 LoRA,你还了解哪些微调方法?16* 大模型训练通常使用什么损失函数17* 在机器学习基础中,二分类问题、多分类问题以及回归问题分别使用什么损失函数?18* 你了解哪些优化算法19* 模型训练中出现过拟合的常用解决方案有哪些?
查看18道真题和解析
点赞 评论 收藏
分享
评论
点赞
1
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务