滴滴大模型算法实习一面 1h
给我面没招了,发点面经攒攒人品~
多Agent系统与垂域大模型落地
1. 中心化调度的多Agent架构中,子Agent的接口设计与结果回流机制如何保证系统稳定性?
2. 纯Prompt实现的Agent范式下,如何设计评测体系以实现自动化的能力判定与迭代闭环?
3. 基于外部知识检索的内容生成,为何容易出现信息复述而非独立推理?如何从算法层面解决这一问题?
4. 垂域量化指标(风险/情绪类)的建模中,小样本场景下为何选择LoRA微调而非全量微调或Prompt Engineering?
5. 垂域LoRA适配时,如何构造高质量监督数据以保证模型输出数值的合理性与一致性?
6. 从原型验证到工程化迭代,如何平衡系统效果、推理成本与训练开销?
Transformer Encoder 底层原理与训练稳定性
1. 完整描述Transformer Encoder的计算流、残差连接与归一化位置设计。
2. 写出多头自注意力的完整数学公式,并说明各维度的含义与变化。
3. 从概率分布与梯度视角,解释scaled dot-product中除以√dₖ的必要性。
4. 对比固定缩放系数与可学习缩放系数在注意力计算中的训练稳定性与表达效率差异。
5. 从序列特性、padding影响、梯度传播三个角度,分析NLP中LayerNorm优于BatchNorm的原因。
多Agent系统与垂域大模型落地
1. 中心化调度的多Agent架构中,子Agent的接口设计与结果回流机制如何保证系统稳定性?
2. 纯Prompt实现的Agent范式下,如何设计评测体系以实现自动化的能力判定与迭代闭环?
3. 基于外部知识检索的内容生成,为何容易出现信息复述而非独立推理?如何从算法层面解决这一问题?
4. 垂域量化指标(风险/情绪类)的建模中,小样本场景下为何选择LoRA微调而非全量微调或Prompt Engineering?
5. 垂域LoRA适配时,如何构造高质量监督数据以保证模型输出数值的合理性与一致性?
6. 从原型验证到工程化迭代,如何平衡系统效果、推理成本与训练开销?
Transformer Encoder 底层原理与训练稳定性
1. 完整描述Transformer Encoder的计算流、残差连接与归一化位置设计。
2. 写出多头自注意力的完整数学公式,并说明各维度的含义与变化。
3. 从概率分布与梯度视角,解释scaled dot-product中除以√dₖ的必要性。
4. 对比固定缩放系数与可学习缩放系数在注意力计算中的训练稳定性与表达效率差异。
5. 从序列特性、padding影响、梯度传播三个角度,分析NLP中LayerNorm优于BatchNorm的原因。
全部评论
相关推荐
查看7道真题和解析