意外,今天收到了二面邮件
点赞 1

相关推荐

给我面没招了,发点面经攒攒人品~1* 项目拷打2* 项目的数据来源是什么?你是如何确定优化目标的?3* 比如数据从 100 条扩充到 1.2 万条,是否全通过自动化生成?生成的样本具体是什么样的?举个例子说明一下生成前后的对比4* 怎么保证自动化生成数据的正确性呢5* 在通过调整参数直到模型回答正确为止的过程中,是否意味着生成的CoT中存在错误逻辑?6* 经过数据清洗后,最终用于SFT的有效数据量是多少?7* 在做微调时,除了 LoRA 是否对比过其他的微调算法8* 你是如何评价微调效果的?测试集的比例是多少?微调前后的准确率分别是多少?原有的模型性能保留了多少?9* LLM常用的结构是什么?10* 说一下Transformer 的整体结构11* 目前主流大模型最常用的位置编码是什么?。12* 写一下多头注意力机制的数学公式。13* 公式中为什么要除以 \sqrt{d_k}?其对梯度消失或梯度爆炸有什么影响?14* 在 Transformer 的 Encoder 和 Decoder 中,哪些部分是可以并行计算的,哪些不可以?15* 除了 LoRA,你还了解哪些微调方法?16* 大模型训练通常使用什么损失函数17* 在机器学习基础中,二分类问题、多分类问题以及回归问题分别使用什么损失函数?18* 你了解哪些优化算法19* 模型训练中出现过拟合的常用解决方案有哪些?
查看18道真题和解析
点赞 评论 收藏
分享
查看14道真题和解析
点赞 评论 收藏
分享
03-26 15:59
已编辑
华东师范大学 算法工程师
本人双一流本+985硕,ICPC铜、CCPC邀请赛银,三篇一作论文(一篇已经中了ACL Finding,还有两篇在投中,LLM/LVLM Safety方向),零零散散拿了一点荣誉(华师大优秀学业奖学金),没有实习经历。目标是找一个中大厂的大模型相关的实习--------------------------------------2026.3.26蚂蚁一面都在问论文,聊开放性问题,有点像AI Lab的一面啊。感觉现在纯LLM的太难找了,不蹭上Agent不行2026.3.25字节伤我好深,问我大模型全量微调、多机多卡的训练细节,组里就几张3090的我是真的不知道啊orz。做出了后面的算法题,但是感觉可能要被挂。2026.3.23PDD约3.24二面这周有点疯狂,有PDD、蚂蚁、字节三场面试。2026.3.21PDD一面又遇到了友好的面试官大哥,泪目了。手撕注意力机制,算法题求n个矩形的面积(得去除重叠部分),一直在聊我的论文,没问八股,就不单独出面经了。2026.3.20百度、快手简历挂投了B站蚂蚁约面3.262026.3.18泡池子泡到发晕,又找了几个厂(携程、华为和OPPO)投了一下晚上收到PDD的约面邮件,定到了3.212026.03.14美团笔试代码题AC了两道,后面两道骗了点分。当年在队里负责的就是图论部分,时隔数年码力下降的不忍直视,令人感叹。2026.03.13投了米哈游和快手2026.03.10投了企鹅2026.03.09上海AI lab第一次面试,面试官人超级nice,可能因为比较偏研究类型?前面一直在聊我的三篇论文(但是指出了我其中一篇有点缺陷>-<,得优化一下包装了)。最后出了一个简单的代码题,我很确信自己之前写过,一紧张忘完了,真尬住了。投了蚂蚁2026.03.07投了京东2026.03.06捣鼓了一下各种常见的手撕,像attention之类的复习了自己之前的科研项目投了美团、百度2026.03.05八股看了大半了(或者说八股是看不完的,又找了一些新的资料)投了PDD、滴滴2026.03.04刷完力扣hot 100,开始准备了一些八股(刚看完Transformer和损失函数什么的)。投了字节暑期、小红书和上海AI Lab的日常。上海AI Lab约面到了3.9,字节约面到了3.25。
点赞 评论 收藏
分享
牛客网
牛客网在线编程
牛客网题解
牛客企业服务