字节Agent大模型算法一面 面经分享
攒攒人品!有面试过同岗的朋友欢迎评论区交流
1.如何降低 Transformer 的计算复杂度?常见的稀疏注意力变体有哪些?
2.LoRA 微调的原理是什么?秩 r 的选择会对模型表现产生什么影响?
3.KV Cache 是什么?为什么能提升推理速度?
4.RAG 的完整流程是怎样的?
5.微调时的训练数据是怎么构建的?如何保证样本多样性和质量?
6.在 RAG + 知识图谱的 Agent 系统中,知识图谱更新机制是怎样的?
7.在高并发查询的 Agent 系统中,你会如何优化召回和生成阶段的延迟?
8.训练 LoRA 模型时,你是如何选择冻结层的?依据是什么?
9.大规模 Agent 系统在多线程场景下,资源调度策略如何设计?
1.如何降低 Transformer 的计算复杂度?常见的稀疏注意力变体有哪些?
2.LoRA 微调的原理是什么?秩 r 的选择会对模型表现产生什么影响?
3.KV Cache 是什么?为什么能提升推理速度?
4.RAG 的完整流程是怎样的?
5.微调时的训练数据是怎么构建的?如何保证样本多样性和质量?
6.在 RAG + 知识图谱的 Agent 系统中,知识图谱更新机制是怎样的?
7.在高并发查询的 Agent 系统中,你会如何优化召回和生成阶段的延迟?
8.训练 LoRA 模型时,你是如何选择冻结层的?依据是什么?
9.大规模 Agent 系统在多线程场景下,资源调度策略如何设计?
全部评论
相关推荐
查看22道真题和解析 点赞 评论 收藏
分享
