芯原算法工程师面经

芯原面试岗位是算法工程师,base是南京,流程是3轮技术面+2轮HR面+CEO面。我一开始没有收到测评,以为自己简历没过筛选或者笔试没通过,结果直接发面试通知了。

技术面:3轮技术面是一起完成的,每轮30min,会有不同部门的面试官来面试你,最后综合所有面试官的面评进行筛选。3轮面试官都是围绕项目展开提问的,其中有1个面试官是做图像处理的,不是很了解,因此我全程都在对项目里的一些算法进行讲解。

第1轮HR面:3轮技术面之后很快就发通知HR面,主要还是问为什么选择这个城市,期望薪资是多少,对芯原的企业文化有什么了解,对芯原SiPaaS的理解,然后进行英文自我介绍。

第2轮HR面:我一开始以为是CEO面,进去了才知道还是HR面,全程英文问答,之后反问也是英文,后来时间不够就换成中文了,我问上一次考英文了怎么又面了一轮,回答说是上次有人实现准备过所以加面1轮。

整体上芯原面试流程很快,3轮技术面之后1天就约了HR面,但是没法联系HR反馈问题,没有邮箱,QQ群也一直没加进去。CEO面安排的话,HR表示CEO比较忙,可能要看时间安排,部分优秀的同学可能会直接跳过CEO面。希望能通过

#通信硬件2024笔试面试经验#
通信专业秋招求职分享 文章被收录于专栏

这篇专栏主要是分享我的求职经历,投递的各家公司、研究所面试经验,面试相关通信知识的学习。本人是211的4无硕士,没有实习、没有论文、没有竞赛也没有国奖,主要做的工作就是物理层信号处理,算法仿真和开发移植这些。牛客是一个分享与交流的平台,我也希望在自己的秋招过程中,除了使用牛客获取所需的信息外,也能为他人分享一些自己的经验,对他人有所帮助。这或许也是互联网的初衷——分享。

全部评论
希望兄弟拿到offer!
1 回复 分享
发布于 2023-09-11 23:55 陕西
希望大兄弟能通过哦!
点赞 回复 分享
发布于 2023-09-11 13:19 四川

相关推荐

今天老师给大家整理了部分搜索推荐算法工程师(实习)面经。供各位同学参考。✅一面1.自我介绍2.先问如果面试通过了,什么时候可以来实习,实习可以线下不3.问有实习过吗?4.简单了解下简历上的两个项目除了这个课程设计,对于推荐还了解哪些5.介绍下推荐系统的流程6.召回和排序比较大的差异点7.为啥排序会比召回的结果要准呢?8.项目中 DIN 模型里面的 attention 是怎么做的?score 是怎么得到的?知道原文里是怎么做的吗?9.现在主要研究是 NLP 吗?10.简历上的在投论文是一作吗?结果咋样?11.未来是希望做 NLP 还是 做推荐12.毕业论文开始写了吗?13.实验有做推荐的吗?14.大数据相关的技术了解如何?15.用户意图理解、用户兴趣、画像建模,应用到推荐上16.编程题:本科是计算系的,平时刷过 leetcode 吗?回答说:没有刻意刷过,不知道该如何回答。17.判断二叉树是否是镜像二叉树,就是判断是否对称。leetcode 原题回答说这个题可以用递归和迭代来做,写了递归实现。✅二面1.自我介绍2.先问了在投的论文,接受了吗?介绍下这篇 paper3.主观性很强的场景,如何做量化等等4.结果 f1 提升的 1% 怎么保证有效性,如何保证置信呢?5.固定随机种子后,多次实验结果相同吗?6.介绍下第二个项目,跟推荐系统相关的7.结合这个项目,说说自己对推荐系统的了解8.多目标混排算法有哪些9.召回主流的做法10.召回的目的是什么,推荐系统一定需要召回吗?11.介绍下 embedding 召回12.推荐系统冷启动问题,怎么解决13.怎么解决排序结果都是之前电影相似电影的结果14.编程题:最长无重复子数组,leetcode 原题,用滑动窗口来做。📳***************************************
点赞 评论 收藏
分享
结合最近辅助修改的简历及项目,老师总结了部分大模型微调简历的踩雷点。🙅‍♂️错误示范:在 x任务中,获取 xxx 条数据,通过规则 or 脚本清洗出 x 条数据,然后微调 y 大模型,在业务上提升 x 个点。✍🏻原因:大模型微调的平台是现成的,基模是现成的,体现不出核心能力。✅应该怎么写?首先介绍业务背景:业务是一个销售对话业务,机器人是销售,代替真人,直接面对用户。我们会给模型设定任务,任务是 prompt 。步骤1️⃣.提取训练数据问题:1.真人通话每通电话任务是未知的,我们训练数据是任务+通话的 pair 对。2.真人通话很乱,与客户的对话是各种交叉的,导致 asr 后并不是一人一轮。解决方案:1.首先通过大模型 prompt 对该通电话提取任务,得到任务+ pair 对。需要用到 cot + reflection +多 Ilm 一致性+ debating 的模式。2.使用大模型根据以上任务和真人对话,让大模型编写出通话内容。提问,为什么要编写而不是直接用?步骤2️⃣.制定训练数据集问题:1、正常的对话内容,前面几句和后面几句基本上一致的。都是问候和拜拜,但是也有一些差异。2、因为都是相似场景,虽然任务不同,但是很多场景语义很相似。解决方案:1、基于轮次的权重采样:通过轮次设定权重进行 weighting sample 。解决问候和拜拜的高占比问题。2、基于语义的采样:使用 bert 对对话内容进行 embedding ,然后使用层次聚类通过调节阈值聚类出相似语义的类。对一个类里的样本进行随机采样,提问,为什么要对重复语义的数据进行下采样?3、基于客户类型和产品的采样,因为很多产品是热品,导致对话内容有偏,用户类型一样,需按照类型调整整体比例采样。提问,为什么要这么采样?步骤3️⃣.制定训练数据集我们直接把输出当作 target 进行训练。使用的 lora 训练,但是 lora alpha 设定成为4倍的时候达到了比较好的效果,经验值不同任务不一样,提问,在各种情况下要怎么调?步骤4️⃣.dpo训练问题:v1版本训练时,很多输出内容是对的,但是输出的语气不太像真人,机器人味还是很严重。解决方案:由于训练本身是有 ground truth 的,因此使用v1训练的模型,预测训练集,使用大模型对比两者语气不符合训练集的拿出来,使用训练集的 ground truth 和模型的预测数据作为 dpo 训练对,对v1版本模型重新训练。📳这里老师只是简要进行概括解答,具体情况和详细解答可以咨询辅导,如果想了解项目辅导,提升面试能力,欢迎后台联系。    
点赞 评论 收藏
分享
评论
5
11
分享

创作者周榜

更多
牛客网
牛客企业服务