北京通用人工智能院 bigai
二面
1. 7b的模型在推理的时候,需要考虑哪些参数,显存占用是多少
2. lora原理 lora的几种变形微调/其他微调方法的原理
3. deepspeed通信原理 dp ddp讲一讲
4. 问论文
5. 场景题 llm和rnn结合怎么做推理 (应该是挖坑给我的😅),llm想和知识图谱结合做推理,应该怎么设置,从哪些层面做
6. 手撕bfs
7. 反问 主要是做工程项目,有paper考核
说的是过了 但是介绍说要去发论文有点不想面了😢
全部评论
ddp是啥?
1 回复 分享
发布于 2024-09-07 15:46 陕西
请问大佬这里的加班强度怎么样呀,稳定吗
点赞 回复 分享
发布于 2024-10-16 14:42 江苏
佬这么早就二面完了,拿offer了么
点赞 回复 分享
发布于 2024-10-08 22:05 北京
投的是NLP的岗位吗
点赞 回复 分享
发布于 2024-09-20 22:10 北京
还有发论文这种好事
点赞 回复 分享
发布于 2024-09-11 11:54 北京
还有部门叫笔盖?
点赞 回复 分享
发布于 2024-09-07 15:48 江苏

相关推荐

发点面经攒攒人品1、你在线上或离线训练时,过拟合怎么处理?直接说你最有效的三个方法和拿到的收益。2、把 BN 讲透:原理是什么;训练期和推理期用的统计量有何不同;跟 LN、GN 比,分别什么时候用、怎么取舍。3、分类和回归你最常用哪些损失?你更偏好哪几个,为什么(从鲁棒性、梯度、数值稳定性上谈)。4、L1 和 L2 正则你怎么选?它们各自的效果与风险是什么,工程里你是怎么权衡的。5、二元和多分类的交叉熵你怎么写?在工程里你怎么做数值稳定实现。6、AUC 到底在统计上代表什么?你怎么计算它,在线上业务里你如何解释“这次 AUC 提升”的含义。7、你做 CTR/CVR/CTCVR 联合建模时,ESMM/ESMM2 是怎么推导与工程落地的?线上到底带来了什么收益。8、Transformer 里因果注意力的 Q/K/V 各从哪来?Mask 具体怎么实现。9、Scaled Dot‑Product Attention 为啥要除以 √dk?如果不除会出什么数值或训练问题。10、把 Transformer / Decoder‑only 的整体结构过一遍,各个组件分别在干什么,有哪些常见变体。11、位置编码这条线你怎么选:绝对 PE、相对 PE、RoPE 各自的思路、优势和局限,结合你的项目谈取舍。12、长上下文怎么搞?Rope scaling、Position Interpolation、KV Cache 管理、检索增强、窗口注意力,你的实战方案是什么。13、KV Cache 在训练和推理中的差异是什么?它的加速价值有多大,吞吐与延迟你是如何权衡的,vLLM/paged‑attention 需要注意什么。14、PEFT 方案里(LoRA/QLoRA/Prefix/Prompt‑Tuning/Adapter)你怎么选?说说稳定训练的经验。15、SFT 和对齐(RLHF/DPO/IPO/PPO)原理差在哪?在不同数据与资源条件下,你怎么选路线。16、RAG 系统你怎么设计?切分、索引、召回/重排、压缩/融合、兜底策略怎么串。17、提示词工程你是怎么搞的?System/角色/约束/分步指令怎么写,如何防越狱
查看17道真题和解析
点赞 评论 收藏
分享
评论
4
12
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务