首页 / 算法岗面试
#

算法岗面试

#
18017次浏览 274人互动
此刻你想和大家分享什么
热门 最新
算法求职简历该怎么写大模型微调
结合最近辅助修改的简历及项目,老师总结了部分大模型微调简历的踩雷点。🙅‍♂️错误示范:在 x任务中,获取 xxx 条数据,通过规则 or 脚本清洗出 x 条数据,然后微调 y 大模型,在业务上提升 x 个点。✍🏻原因:大模型微调的平台是现成的,基模是现成的,体现不出核心能力。✅应该怎么写?首先介绍业务背景:业务是一个销售对话业务,机器人是销售,代替真人,直接面对用户。我们会给模型设定任务,任务是 prompt 。步骤1️⃣.提取训练数据问题:1.真人通话每通电话任务是未知的,我们训练数据是任务+通话的 pair 对。2.真人通话很乱,与客户的对话是各种交叉的,导致 asr 后并不是一人一轮。解决方案:1.首先通过大模型 prompt 对该通电话提取任务,得到任务+ pair 对。需要用到 cot + reflection +多 Ilm 一致性+ debating 的模式。2.使用大模型根据以上任务和真人对话,让大模型编写出通话内容。提问,为什么要编写而不是直接用?步骤2️⃣.制定训练数据集问题:1、正常的对话内容,前面几句和后面几句基本上一致的。都是问候和拜拜,但是也有一些差异。2、因为都是相似场景,虽然任务不同,但是很多场景语义很相似。解决方案:1、基于轮次的权重采样:通过轮次设定权重进行 weighting sample 。解决问候和拜拜的高占比问题。2、基于语义的采样:使用 bert 对对话内容进行 embedding ,然后使用层次聚类通过调节阈值聚类出相似语义的类。对一个类里的样本进行随机采样,提问,为什么要对重复语义的数据进行下采样?3、基于客户类型和产品的采样,因为很多产品是热品,导致对话内容有偏,用户类型一样,需按照类型调整整体比例采样。提问,为什么要这么采样?步骤3️⃣.制定训练数据集我们直接把输出当作 target 进行训练。使用的 lora 训练,但是 lora alpha 设定成为4倍的时候达到了比较好的效果,经验值不同任务不一样,提问,在各种情况下要怎么调?步骤4️⃣.dpo训练问题:v1版本训练时,很多输出内容是对的,但是输出的语气不太像真人,机器人味还是很严重。解决方案:由于训练本身是有 ground truth 的,因此使用v1训练的模型,预测训练集,使用大模型对比两者语气不符合训练集的拿出来,使用训练集的 ground truth 和模型的预测数据作为 dpo 训练对,对v1版本模型重新训练。📳这里老师只是简要进行概括解答,具体情况和详细解答可以咨询辅导,如果想了解项目辅导,提升面试能力,欢迎后台联系。
点赞 评论 收藏
分享
推荐算法3轮面经
今天老师给大家分享推荐算法3轮面经,供各位同学参考。1️⃣第一轮1、先自我介绍,我的习惯是经历简单介绍一下,然后自然转向准备最充分的一个项目开始详细讲,面试官感兴趣的话最好,不感兴趣的话会直接打断的。主要介绍了项目的背景,难点和解决方案,面试官关心的点主要集中在问题抽象和损失函数,讲清楚为什么这么做,项目大概聊了半小时左右2、机器学习基础:推导 lr,写出loss和梯度(比起推导svm来说简直就是送分题,要是写不出来的话估计会直接挂,基础还是要好好准备)3、算法 链表对折 1 2 3 4 5 变成 1 5 2 4 3拆解一下题目,(灵活)找到链表的中点 牛客题霸: 链表中倒数第k个节点 是找中点的复杂版,都是双指针解法翻转后半段链表 牛客题霸: 翻转链表合并两个链表 牛客题霸: 合并两个有序链表 是复杂版2️⃣第二轮1、先介绍项目,主要聊了项目背景和收益,收益具体怎么衡量,项目如何上线生效2、算法题 m*n的二维数组,只能往右或者往下,找最短路径,n空间 牛客题霸: 矩阵的最小路径和3、有了解过设计模式吗?(答了常见的工厂模式和单例模式,对应的应用场景,简单扯了一下装饰器模式,也是看xgb源码看到的,其实不会用)4、系统设计需要注意什么,如何设计一个系统,系统性能如何评估,需要考虑哪些指标(考察点应该是线上的系统了,指标比如内存使用率,qps,99 39 49时间之类的)5、之前帮阿里云录制过一些深度学习的入门课程,简单聊了一下相关的内容3️⃣第三轮1、先介绍项目,主要聊了项目背景和收益,收益具体怎么衡量,项目如何上线生效2、介绍xgbgbdt和xgb的区别(居然没有问lgb)怎么选最优分裂节点,怎么加速,预排序有什么作用,怎么分箱,等宽还是等深怎么处理缺失值的,预测时候缺失值怎么办3、为什么离职,希望一份什么样的工作4、有没有什么问题想要了解的(问了业务场景 工作内容)📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
查看10道真题和解析
点赞 评论 收藏
分享
如何拿到大厂算法岗offer
点赞 评论 收藏
分享
通过大厂辅导老师,我走了哪些捷径
点赞 评论 收藏
分享
04-02 21:01
已编辑
滴滴_HRBP(准入职员工)
文远知行算法岗实习(感知方向)面经全解析与深度复盘
一、面试流程与核心要点1. 笔试环节题型:4道编程题(动态规划+图遍历为主),中等难度。典型题目:零钱兑换变种(动态规划)、图的最短路径优化(Dijkstra或A*算法)。备考建议:重点突破背包问题(完全背包、多重背包)及几何算法(线段相交、多边形包含判断)。熟悉LeetCode高频题(如跳跃游戏、NMS实现),注重边界条件与代码鲁棒性。2. 技术面深度剖析(1) 算法与系统设计考核零钱兑换变种:核心思路:动态规划(DP)状态转移方程,需考虑滚动数组优化降低空间复杂度至O(n)。进阶追问:输出所有组合时,可结合回溯+剪枝策略,避免重复计算。线段交点算法:参数方程法需处理分母为零(平行/重合)及浮点精度误差(如EPSILON阈值判断)。参考:文远知行面试中频繁出现几何类题目,需掌握向量叉积、快速排斥实验等数学工具。系统设计(shared_ptr实现):关键点:引用计数的线程安全(atomic或mutex)、拷贝构造的深拷贝逻辑。性能对比:atomic操作轻量但依赖硬件支持,mutex更通用但存在锁竞争开销。(2) 项目深挖与技术追问点云处理中的循环推断问题:问题本质:目标检测(OD)与跟踪模块的误差累积,导致预测与观测矛盾。解决方案:引入卡尔曼滤波先验估计,面试官进一步探讨粒子滤波的适用性(计算量大,适合非线性非高斯场景)。多传感器同步:硬件触发(如PTP协议)降低时间偏差,软件插值法(线性/样条插值)补偿残差。伪代码需体现时间戳对齐与数据缓冲队列设计8。(3) 场景设计与系统思维停车场调度系统:地图建模:栅格化(障碍物标记)或图结构(节点为车位/路口)。动态障碍物处理:局部重规划(D* Lite)或实时避障(RRT*)。优化目标:面试官倾向于时间最短(用户体验)而非转向最少(硬件损耗)。二、面试官考察维度与策略技术深度:算法岗核心考察代码实现能力(如手撕NMS)与数学推导(如梯度消失解决方案)。项目经历需提炼技术链条(数据输入→处理逻辑→输出优化),并准备失败案例复盘。行业洞察:总监面高频问题:对比竞品技术(如特斯拉FSD的决策逻辑),需熟悉文远知行多传感器融合方案。压力测试:HR面常见陷阱问题(如“何时离职实习”),建议强调职业规划与公司契合度。三、备考策略与资源推荐算法强化:刷题:LeetCode动态规划TOP 100、几何题库(线段/矩形相交)。系统设计:智能指针、线程池等高频考点。行业知识储备:必读文远知行技术文章(官网及知乎专栏),重点学习BEV感知、时序融合等前沿方向。竞品分析:Waymo的仿真系统、Cruise的路径规划特点。项目包装技巧:使用STAR法则描述项目(情境→任务→行动→结果),突出量化指标(如算法精度提升20%)。四、内推与招聘动态当前机会:文远知行2025届春招及2026届实习开放中,算法岗(感知/规划/控制)需求量大。内推优势:通过内推码(DS17ugTB)可加速简历筛选,优先获得面试机会。内推链接如下:https://app.mokahr.com/m/campus_apply/jingchi/2137?recommendCode=DS17ugTB#/jobs投递建议:关注官网及招聘平台更新,匹配岗位JD调整简历关键词(如“多传感器融合”“点云分割”)。文远知行面试注重算法功底、工程落地能力与行业敏锐度。建议候选人结合自身项目,深度挖掘技术细节,同时加强对自动驾驶产业链(如芯片、传感器、法规)的宏观理解。笔者整理的真题与经验可私信获取,预祝各位斩获心仪Offer!
点赞 评论 收藏
分享
中流985转算法岗血泪史 | 双非逆袭路线居然可复制?
无顶会/无大厂实习的真·自救指南大家好,我是诸葛不亮✨最近被问爆的算法岗灵魂拷问:"LeetCode才200题,没打过Kaggle普刊论文能进大厂吗?现在转CV还有机会吗?"今天用带过的真实案例揭秘算法岗上岸密码(已脱敏处理)🟢学员背景中流985电子信息专业1篇CCF-C类论文(非一作)LeetCode刷题量:327数学基础:高数95/线代88项目经历:2个课程设计级CV项目🟠致命短板分析论文质量不达标(缺乏创新点/工程价值)代码能力纸面化(能写推导却调不通模型)技术栈陈旧(还在用TensorFlow1.x)比赛经验空白(缺乏权威名次)🟣60天逆袭方案(附学习Roadmap)✅论文增值计划(3周攻坚)精读5篇顶会SOTA论文(附必读清单)复现经典模型(ResNet/BERT等)技术报告撰写:突出工程落地思考✅代码能力重塑(持续进行)每日1道Hard+2道Medium(按企业题库分类)PyTorch专项:从自动求导到分布式训练周更Github:构建个人技术品牌✅竞赛突围策略(梯度备战)青铜局:天池/讯飞新手赛(保Top20%)黄金局:Kaggle月度赛(冲击铜牌)王者局:DCIC/ChinaVis(争取团队突破)🔵赛道选择建议(附各方向上岸难度表)蓝海方向:图神经网络/生物计算高危红海:人脸识别/目标检测折中选择:推荐系统/风控模型(各赛道知识图谱可私信领取)为算法er准备的独家福利:1⃣ 大厂算法岗真题库(2019-2024持续更新)2⃣ 顶会论文精读笔记(含代码实现要点)3⃣ 竞赛baseline急救包(分类别整理)💡正在进行的《算法岗春招急救营》提供:论文创新点诊断服务代码评审1v1竞赛组队匹配技术路线动态调整⚠根据平台规范特别声明:学术成果需遵守科研诚信规范竞赛严禁任何形式作弊行为课程属知识服务不承诺就业结果计算机视觉  Kaggle竞赛 #研究生就业
点赞 评论 收藏
分享
为什么现在 LLM 很少使用 Dropout了?
翻遍各种大模型的实现,虽然结构上可能保留了 dropout 的实现,但是采样概率都设置为 0 了。唯一一个比较新的,还用 Dropout 的模型是 Meta 训练的 Galactica 模型。那为什么现在不用了呢?核心还是要弄清楚 Dropout 的使用场景。Dropout 之前在深度学习当中是一个特别好用的方法,可以防止过拟合,提高泛化。所以说,当模型较大,数据较少的时候,使用 Dropout 是比较合适的。现在大模型处在什么状态呢?✅预训练在预训练阶段,目前可能还是处于欠拟合的状态。之所以说可能,是基于目前公开的一些论文的出的结论。但是现在闭源的公司在采用大量数据合成的情况下,已经训练足够充分或者接近充分也说不定。以 llama 一系列论文为例,训练 llama 1 的时候,龙猫 Scaling law 里面提到 GPT3 是一个训练很不充分的模型。然后给出的数据配比的建议是,10B 的模型要采用 200B 的 token 来训练。但是 llama 1 采用了 7B 的模型,训练量 1T 的 token 发现性能依然有提升。而且预训练所有的语料一般只过一个 epoch,某些特定的领域可能过 2个 epoch,可以认为样本的重复率很低。所以,在数据足够多,多样性足够而且没有太多重复的情况下,大模型在预训练阶段仍然没有过拟合的风险。也就完全不需要采用 dropout。✅Dropout 就完全不需要了么?如果上面的条件不能满足,Dropout 还是有用武之地的。比如前面提到的 Galactica 模型。这个模型和其他大模型不太一样的地方是训练了 4.25 个 epoch,因为他们认为高质量的数据更重要一些,但是又没有那么多,所以就 repeat 数据了。在论文《To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis》 中,详细列举了数据 Repeat 对训练 LLM 的影响,并且证明了 Dropout 可以缓解数据重复带来的性能损失。在文章《Can LLMs learn from a single example?》中,也提到了在 SFT 的时候,少量的重复数据就会降低模型的性能。这也符合常理,SFT 的数据分布和预训练的通常是不太一样的,重复的数据会让模型拟合新的分布,从而忘掉旧的分布。文中同样也提到 Dropout 可以缓解数据重复带来的影响。所以 Dropout 在数据量较少,多样性不高,需要 repeat 的场景下,依然是一个减少过拟合的很方便的手段。比如现在已经有一些在 LoRA 微调的时候采用 Dropout 的研究了。
点赞 评论 收藏
分享
玩命加载中
牛客网
牛客网在线编程
牛客网题解
牛客企业服务