算法面经:LLM八股总结

攒人品中,欢迎评论区交流~
1.在 LLM 的推理阶段,有哪些常见的解码策略?请解释 Greedy Search,Beam Search,Top-KSampling 和Nucleus Sampling(Top-p)的原理和优缺点。
2.什么是位置编码?列举两种实现方式。
3.请你详细介绍 ROPE,对比绝对位置编码它的优劣势分别是什么?
4.MHA ,MOA,GOA 的区别。
5.请比较一下几种常见的 LLM 架构,例如 Encoder-0 nly,Decoder-Only,和 Encoder-Decoder ,并说明它们各自最擅长的任务类型。
6.什么是 Scaling Laws ?它揭示了模型性能、计算量和数据量之间的什么关系?这对 LLM 的研发有什么指导意义?
7.请详细解释一下 Transformer 模型中的自注意力机制是如何工作的?
8.什么是词元化?请比较一下 BPE()和 WordPiece 这两种主流的子词切分算法。
9.你觉得 NLP()和 LLM 最大的区别是什么?
10.开源框架了解过哪些?
11.激活函数有了解吗,你知道哪些 LLM 常用的激活函数?为什么选用它?
12.混合专家模型(MOE)是如何在不显著增加推理成本的情况下,有效扩大模型参数规模的?请简述其工作原
理。
13.在训练一个百或千亿参数级别的 LLM 时,你会面临哪些主要的工程和算法挑战?
14.最近读过哪些 LLM 比较前沿的论文。
全部评论

相关推荐

发一下问题给大家参考,攒攒人品!1 项目拷打2. 在 Agent 多轮对话任务中,Attention 的局限性具体体现在哪些方面?3. 简要介绍 SFT 的核心流程,以及如何制定数据集的构建策略?4. SFT 之后常见的 Post-Training还有哪些?它们各自的设计目的是什么5. 什么是RAG它提升生成质量的核心原理是什么6.RAG与传统的检索 + 模型生成流程有何不同7.如何构建评估体系来验证一个RAG系统是否真正Work?8.PPO和DPO在对齐阶段的主要区别是什么?9. 在进行DPO训练时,通常有哪些关键的注意事项?是否了解过GRPO10.在Modular Agent中,多步规划是如何实现的?11.针对多个工具的调用链路,你的调度策略是如何设计的12. Agent 评估体系包含哪些核心维度?如何量化衡量Planning能力与Hallucination Rate )?13.在微调Qwen模型时,你是如何确定训练阶段和 Loss Function的?14. Prompt自动推荐模块应用了哪些优化策略?是否尝试过Prompt压缩或Embedding表示的方式?15.假如Agent推理链路包含3个工具且请求频率极高,导致系统整体延迟较高,你会从哪些维度进行优化?17.在记忆系统中,意图识别 承担什么职责?18.Embedding的维度选择(如 1024 维)是基于什么逻辑?为什么不选择更高或更低的维度?19.Qwen-4B的Embedding是如何实现的?其模型框架是否属于 BERT 系列?20.Qwen-34B的Rerank是如何实现的?21.Attention机制中的Q, K, V矩阵具体是如何通过输入变换得到的?22.Attention公式中除以根号d_k的作用是什么?如果不除以它,是否有其他替代方案?23.请详细解释Multi-Head Attention ,并指出它目前存在的主要问题24. 如何解决多头注意力机制计算开销过大的问题25. 什么是 RoPE ?它核心解决了什么问题?26. 在 Memory  系统中,如果输入文本过长,常见的工程处理策略有哪些?
点赞 评论 收藏
分享
评论
点赞
5
分享

创作者周榜

更多
正在热议
更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务