小米秋招agent算法一面
一、手撕
题目:给定一个字符串 s 和一个整数 k,每隔 k 个字符反转一次,返回最终字符串。
简单很快就写出来了
二、八股
1.自注意力机制是什么?计算复杂度怎么算?
吟唱: 通过query-key相似度计算权重,对value加权求和,建模长距离依赖。O(n平方)n为序列长度。
2.KV-Cache的如何加速推理?
继续吟唱:生成时缓存已经计算过的kv,避免重复计算。
3.LoRA的原理是什么?与P-Tuning、Adapter的异同点?LoRA的参数选择对模型性能有何影响?
三连吟唱:原理是冻结原始权重,训练低秩矩阵参数。异同在于lora训练参数,p-tuning只优化了prompt嵌入。
4.介绍下RLHF的基本流程,与DPO的差异是什么?
主动吟唱:RLHF三段式,sft用高质量数据集微调,rm训练对比学习模型用于打分,ppo通过rl泛化增强。dpo直接优化偏好数据,省去rm和ppo。
5.分布式训练中的TP、PP、DP分别是什么?
TP按tensor维度拆分,PP按网络层数分段流水线执行,DP数据并行,复制模型副本分散计算
6.flash-attention的原理是什么?
这里回答没太好,只讲了通过内存层次结构什么的减少I/O瓶颈
7.DeepSeek的MoA架构与MoE有何区别?
moe通过门控机制选择专家子网络,参数规模增加但训练难度大。moa则用多个agent回答,通过数据迭代优化,缓解偏科。
8.如何处理数据不均衡问题?
上采样小样本,课程学习
三、项目与实习
1.agent实习主要负责哪些模块?
动作规划,memory经验,evaluation pipeline,后训练,很多模块都参与了,面试官也挺震惊哈哈。这里聊比较多就不po了。
2.记忆系统如何实现视觉-语言特征对齐?
clip映射到联合embbeding上
3.如果视觉模块误判,如何通过语言纠错?
检测矛盾关键字,通过反馈触发重试。
4.具体讲讲怎么构建evaluation pipeline的?
做了数据爬取,版本控制,llm打分
题目:给定一个字符串 s 和一个整数 k,每隔 k 个字符反转一次,返回最终字符串。
简单很快就写出来了
二、八股
1.自注意力机制是什么?计算复杂度怎么算?
吟唱: 通过query-key相似度计算权重,对value加权求和,建模长距离依赖。O(n平方)n为序列长度。
2.KV-Cache的如何加速推理?
继续吟唱:生成时缓存已经计算过的kv,避免重复计算。
3.LoRA的原理是什么?与P-Tuning、Adapter的异同点?LoRA的参数选择对模型性能有何影响?
三连吟唱:原理是冻结原始权重,训练低秩矩阵参数。异同在于lora训练参数,p-tuning只优化了prompt嵌入。
4.介绍下RLHF的基本流程,与DPO的差异是什么?
主动吟唱:RLHF三段式,sft用高质量数据集微调,rm训练对比学习模型用于打分,ppo通过rl泛化增强。dpo直接优化偏好数据,省去rm和ppo。
5.分布式训练中的TP、PP、DP分别是什么?
TP按tensor维度拆分,PP按网络层数分段流水线执行,DP数据并行,复制模型副本分散计算
6.flash-attention的原理是什么?
这里回答没太好,只讲了通过内存层次结构什么的减少I/O瓶颈
7.DeepSeek的MoA架构与MoE有何区别?
moe通过门控机制选择专家子网络,参数规模增加但训练难度大。moa则用多个agent回答,通过数据迭代优化,缓解偏科。
8.如何处理数据不均衡问题?
上采样小样本,课程学习
三、项目与实习
1.agent实习主要负责哪些模块?
动作规划,memory经验,evaluation pipeline,后训练,很多模块都参与了,面试官也挺震惊哈哈。这里聊比较多就不po了。
2.记忆系统如何实现视觉-语言特征对齐?
clip映射到联合embbeding上
3.如果视觉模块误判,如何通过语言纠错?
检测矛盾关键字,通过反馈触发重试。
4.具体讲讲怎么构建evaluation pipeline的?
做了数据爬取,版本控制,llm打分
全部评论
相关推荐
点赞 评论 收藏
分享
查看11道真题和解析