上海华勤科技(驱动开发)面经,一面

11.6电话通知面试

11.8下午2.45线上面试一面

11.8晚6.30分线上面试二面

一面:

请你自我介绍一下,包括专业技能、项目经历和课题。

项目:如何对wm8960驱动移植的,如何测试的,测试工具是什么,请展开说说流程是怎么样的?

八股:说说野指针产生原因,怎么避免?数组和链表区别?网络五层协议分别是哪些?

综合:如果领导把一个任务交给你并要求三周之内完成,但你的个人能力是肯定无法完成的,你会怎么做?(就是问你抗压能力和能不能接收加班,无脑加就完事了)你的职业规划、你的家庭情况、找工作看重哪些点、了解华勤吗,如何看待网上的负面评价?你有女朋友吗(建议直接回答无,少点破事)?如果你来我们公司工作,你女朋友怎么办,怎么处理?你研究生期间觉得最有成就感的事情是什么?介绍一下你的研究课题、能不能来实习。手上有几个offer(建议回答少点吧,我说三个面试官直接说我们不希望有拿了offer但拖着不签的情况),签意向了吗?找工作看重哪些?

反问环节

总共三面,一二面技术,三面hr

面试官很好,氛围很轻松,回答不上来的问题会引导你回答,不会拷打,点赞!

整体回答的不太行,我以为偏技术,没想到这么多其他问题,都没什么准备直接就来答了,希望给各位兄弟做个参考好好准备。

后续:进入复试(被call了八次都没接到电话,疯狂道歉~)

二面(综合)

自我介绍,询问了项目的一些基本问题(项目负责哪部分,遇到什么问题,怎么解决的)。就业选择公司看重哪些点?如果别人给你批评建议你会如何对待?平常玩游戏吗(玩cs)?你觉得怎么才能赢得游戏(团队协作)?本科期间c语言考试多少分?c++掌握程度怎么样,如何学习的?你觉得c和c++有什么区别?你的职业规划有哪些?堆和栈有什么区别?你觉得自己有什么优缺点?平常有什么爱好?

面试官也很好,交谈氛围很轻松,后续还有一轮HR面,希望能够顺利入职吧!

#华勤技术##驱动开发##面经##一面##二面#
全部评论
点赞 回复 分享
发布于 2025-01-20 13:17 陕西
佬,你测评做完多长时间面的
点赞 回复 分享
发布于 2024-11-11 15:43 安徽

相关推荐

头像
03-23 20:09
已编辑
百度_高级研发工程师
刚面完一把大厂的 AI 核心业务线,遇到个懂行的总监,一直在大模型微调这块给我挖坑,估计想看我是不是那种只会调第三方 API 的“外包型开发”。顺手把面试过程复盘一下,供后端转 AI 方向的兄弟们参考。一、 避坑:千万别在简历上乱吹“全量微调”很多后端兄弟为了简历好看,上来就写自己主导了全量微调(Full Parameter Fine-tuning)。这在懂行的人听来挺扯的,全量微调极其烧钱,动辄几百张 A100 显卡,普通业务线哪来这个算力和预算去给你折腾。面试时我直接兜了底:结合咱们真实的业务场景,我只参与了指令微调(SFT)和参数优化。其实大厂现在勒紧裤腰带,最看重的就是“花小钱办大事”,精准踩中降本增效和 ROI 才是正解。二、 被追问的深水区:怎么防“灾难性遗忘”后来聊到把公司的私有业务数据喂给开源大模型时,总监顺理成章地问到了“灾难性遗忘”——模型学了公司的业务黑话,结果连基础的逻辑推理都不会了。应对这个,我切入了用正则化(Regularization)做权重约束的方案。作为 Java 开发,能把这俩概念用大白话解释清楚,面试官基本就认可你的算法底子了:L1 正则化 (Lasso): 核心在于惩罚项 \lambda \sum |w|。它的特性是会产生稀疏矩阵,能把大模型里很多不重要的特征权重直接清零。我结合了他们公司的端侧场景聊:在智能硬件上部署模型,内存和算力死贵。利用 L1 的稀疏性可以大幅压缩模型体积,在不怎么掉精度的情况下,保住端侧的推理速度。L2 正则化 (Ridge): 核心是 \lambda \sum w^2。它不会把权重变 0,而是让其变得平滑。大模型的底座参数是跑了万亿 Token 炼出来的完美状态,加新知识时,L2 就像个限流器,防止底座权重发生剧烈漂移。这样既吸收了业务知识,又不会过度拟合。三、 找准后端的生态位:不抢算法的活最后面试官试探性地问:“既然算法原理这么熟,那这微调的训练代码是你用 Python 写的吗?”这绝对是个坑。做后端的一定要守住自己的边界,不能瞎揽活,我当时直接拉回 Java 主场:“炼丹跑 PyTorch 脚本主要是算法团队在搞。作为后端,我在微调链路里的核心价值是做‘数据工程化’。大家都知道 Garbage in, Garbage out,微调的上限全看数据质量。我主要用 Java 跑高并发的 ETL 任务,从 MySQL/ES 里把真实的业务日志抽出来,洗掉敏感词和废话,组装成严格的 {"instruction": "...", "input": "...", "output": "..."} 格式。没有后端的这条数据流水线,算法团队连干净的‘饲料’都拿不到。”总结:后端面 AI 岗位,最吃香的画像其实是:懂点算法底层逻辑(知道显存怎么省、遗忘率怎么控),但核心精力全扎在工程落地(清洗海量数据、保障系统并发)上的务实派。希望对大家有帮助。
查看3道真题和解析
点赞 评论 收藏
分享
头像
03-23 20:11
已编辑
百度_高级研发工程师
这篇继续盘点一下后端转 AI 方向面试时,最容易被面试官“扒皮”的几个工程落地场景。全是实打实的干货,希望能帮兄弟们避坑。一、 RAG(检索增强生成)的全链路拆解面试官极其看重你怎么把企业文档变成知识库的。这块如果你只是个纯调包侠(只会调 LangChain 的 API),被稍微一深挖绝对露馅。我跟他完整勾勒了整条数据流水线:从文档解析,到文本切片(Chunking)。这里有个加分项:一定要提**“按长度切分并保留 Overlap(重叠区)”**,这样能保证上下文语义不断裂。至于向量库选型,别干巴巴地只说一个。我给出的方案是:数据量极大、分布式要求高的场景直接上 Milvus;而轻量级、或者需要和传统关系型数据强绑定的场景,用 pgvector。顺带提一嘴查询时用的是“混合检索(Keyword + Vector)”,召回的精准度会靠谱很多。二、 大模型幻觉与 Prompt 约束兜底面试官必问:大模型胡说八道、乱承诺怎么办?对付这个,咱们后端有常规的三板斧:控参数: 调低模型生成时的 Temperature 参数,直接把发散性和创造性压下来。强指令: 在 Prompt 里加入极其严格的系统级指令兜底(比如:“如果你不知道,请直接回答不知道,严禁编造信息”)。引入 Few-Shot(少样本提示),给几个标准的问答 Case,把它的输出格式和边界死死限制住。三、 核心痛点:用 RocketMQ 做异步解耦与削峰AI 接口耗时极长,这是通病。面试时必须明确态度:大模型打分或推理,绝对不能同步阻塞主流程。当时的解法是:用户发消息后,聊天服务只管快速落库,然后立刻往 RocketMQ 里丢一条异步消息返回给前端。后端的打分微服务作为消费者,在后台慢慢跑,调完大模型再去更新数据库。进阶防坑: 面试官听到 MQ 肯定会追问重复消费。记得补一句:“我在消费端的 Java 代码里做了防重,基于业务主键(SessionID + MsgID)在 Redis 里做了 Key 校验,或者在 MySQL 用唯一索引兜底。坚决不能让大模型对同一条记录重复打分,浪费 Token 算力。”四、 全双工流式交互(WebSocket + SSE)解决 AI 响应慢导致用户吃灰的问题,还得靠前端流式输出。我重点聊了用 SSE(Server-Sent Events)和 WebSocket 技术,把大模型的响应“逐字”推给前端,而不是傻等到全部生成完再返回,这样能把首字延迟(TTFB)压到极致。进阶防坑: 聊流式交互必问断线处理。我们在网关层(如 Netty 构建的 WebSocket 集群)加了心跳保活机制(Ping-Pong)。一旦检测到死链接,立刻释放后端线程池资源;同时客户端配合自动重连和断点续传逻辑,保证流式数据不丢字。
查看15道真题和解析
点赞 评论 收藏
分享
评论
3
16
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务