面经1,2024年,腾讯40K大模型数据算法工程师

腾讯的面试一般有3-5轮:

一面,技术面

面试官:

1、自我介绍

2、讲项目

腾讯的面试官要求我讲一讲自己简历上写的项目。

3、技术问答

因为我简历上写的项目涉及了数据预处理、BERT大模型等,所以面试官追问:

数据预处理怎么做的?

BERT的两个预训练任务是什么?

BERT和GPT的对比?

等等。

最后,腾讯的面试官:

你自己简历上的东西都不熟,就不要浪费双方时间了。

你自己简历上的东西都不熟,还不如不写上去。

(后来我的老师教导我:简历就是考卷,简历上写的项目等都要非常熟悉)

补充:

别的公司如南粤家政,会更关注求职者能否给公司创造价值?

如南粤家政的面试官:家政行业大模型,如何给我们公司带来更多客户?

#AI大模型#
GPT大模型算法面试经验 文章被收录于专栏

我是计算机专业的硕士,毕业进入社会,深深的感觉到面试找工作的困难(可能是因为我毕业时,不巧碰上了2019冠状病毒全球疫情)。 我会努力将每次面试有价值的经验记录下来,既是帮助自己温故而知新,也希望能给大家面试找工作提供帮助。

全部评论

相关推荐

09-22 14:41
已编辑
门头沟学院 算法工程师
面试是24年7月的现在已经入职几个月了,补一下面经,帮有需要的同学参考。BG:本硕985 计算机论文1A1B一面:技术面自我介绍 & 简历相关。简单介绍了自己在多模态和大模型方向的研究/工作经历,包括在校期间的论文工作以及实习经历。面试官主要针对简历上的项目提了一些细节问题,比如具体模型的量级,提升了多少,和哪些方法做了比较等。因为是自己的工作,所以没有卡壳。问有没有遇到过 Python 文件之间互相 import 的问题,出现这种问题怎么办?让我简单介绍了一下 PPO 算法,以及和 TRPO 的区别是什么?接着 PPO,问了一下 ChatGPT 的 RLHF 流程,以及为什么不直接用 SFT,而是要用强化这么麻烦的方式训练模型?继续追问 RLHF、SFT、LoRA 的区别,分别适用于什么场景?反问:公司现有业务是什么,计算资源情况等。二面:主管面论文介绍。让我用通俗的语言介绍我自己发表和投稿的论文,重点是研究动机和要解决的问题。问有没有亲手训练过大模型,最多用了多少张 GPU 卡?并行训练使用的框架是什么?介绍一下 DeepSpeed,说一下这个框架在并行的不同阶段(ZeRO stage)分别做了哪些事?训练模型的时候,数据量有多少,怎么收集数据的,训练花了多少时间?遇到的最大问题是什么?问在大模型全量微调时,显存消耗分别由哪些部分占用?(参数、梯度、优化器状态、激活信息等),分别占用多少?假设模型参数量为N,请分不同情况讨论和计算一下微调所需要的显存(不同精度、batch size、seq len 等)。说一下 LoRA 公式,讲一讲其中 A 和 B 两个矩阵分别表示什么。LoRA 的优缺点是什么,什么场景下适合使用?问知道哪些大模型训练和推理框架,用过哪些?问 LLaVA 的结构是什么,和常规的纯文本大模型有什么区别?Encoder-Decoder 结构的模型转 ONNX 的一般流程,遇到不支持的算子怎么办?可能遇到的问题(动态 shape、模型中逻辑判断需要单独写、模块拆分等)。三面:HR 面主要问了为什么选择公司,对团队的看法,对岗位的认识;未来大致的规划,面试过程的体验,有没有别的公司的 offer 等。以及询问了期望薪资等。之后就是等待,最终和期望薪资基本一致。总体感受面试流程比较顺畅,问题也比较贴合岗位要求;如果和岗位匹配度高,一般流程推进速度会很快。入职以后,工作内容和面试被问的问题也差不多,基本上都是算法工程师需要做的内容,团队氛围也很不错。只是毕竟是企业,不可能光搞研究,在承接业务时还是免不了和很多人打交道和来回battle需求,这个无可避免。
查看19道真题和解析
点赞 评论 收藏
分享
09-13 13:21
门头沟学院 Java
Aeside:首先我明确告诉你看视频学习是最低效的方法,因为你不会进一步地深入思考,只是一味的灌输。 所以目前的建议是直接速度学完外卖和点评,然后参考别人面经背八股。背八股这个知识点时,首要就是从你的项目出发,理解为什么和怎么做时,你才能比较透彻学的东西。 总得来说就是速度过一遍点评外卖学怎么用,然后学八股理解为什么和具体原理。
点赞 评论 收藏
分享
评论
1
2
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务