数字马力AI算法工程师面经

双非硕一年经验社招,之前只做CV
1,4.10一面 简述下transformer,注意力机制公式,QKV cache ,闲聊提了一个场景如何用Yolov8检测,知道Lora 吗?简述lora 原理以及工作原理。有无大模型训练经验,怎么训练的,模型推理加速用的是什么。
2,4月14二面,简述项目以及职则,说说CNN和tranformer 区别,项目中收获是什么,项目用的dify 还是langchain,了解lang graph吗,为什么用langchain ,说下rerank ,项目中用的什么检索策略,模型训练是否使用量化,数据管理用的什么,数据原因引起的大模型能力不足具体是数据的什么问题。说下梯度削减的训练策略
3,4月17 HR面
4,感谢信

目前想起来的就这些,后续回想有的答的确实不好,毕竟经验不太够,下次吧 #面经#  #数字马力#

全部评论
这跟技术面没关系了吧,是不是hr面没发挥好
点赞 回复 分享
发布于 04-24 20:56 河南
感谢信hr面完多久发的
点赞 回复 分享
发布于 04-19 17:32 上海

相关推荐

今天老师整理了大模型入门的几个学习步骤、目标和需要掌握的基础知识,供初学者快速掌握基本路径。1️⃣前置知识: Python 基础、 Linux 基础🌟学习内容1.熟练掌握 Python 语言,熟悉常用的Python 库和工具,如 NumPy 、 Pandas 、  Scikit - learn 、 PyTorch 等。2.具备 NLP 相关的基础知识,包括文本预处理、分词、词性标注等。3.对大模型有一定了解,包括Transformer 模型的结构和原理、基于注意力机制的自然语言处理技术等。2️⃣Step1:NLP相关基础知识🌟学习内容1.了解文本预处理、分词、词性标注、命名实体识别、词向量表示等基础知识。2.掌握机器学习中的数据预处理、特征提取、分类、回归等基础算法,并了解其在 NLP 领域的应用。3.了解大规模 NLP 任务中的常用技术和方法,如深度学习中的 Transformer 模型、 BERT 、 GPT 等。3️⃣Step2:GPT API 调用及 Prompt 设计🌟学习内容了解 GPT API 的调用方式和基本操作,熟悉 Prompt 设计技巧和要点,能够结合自己的任务调用 API 实现对应的任务代码。4️⃣Step3:模型微调( Fine - tuning )🌟学习内容了解常见的微调模型的基本流程和原理,熟悉数据集的构造、训练、评估等过程,能够独立构建 QA 对,在服务器上对模型进行微调。5️⃣Step4: RAG (外挂数据库)🌟学习内容RAG 作为目前最火的一个 LLM 落地方向,可以结合私有数据(表格、 word 、 txt 、 pdf 、数据库皆可)实现本地问答,且训练成本较低,可以快速实现效果。✴️有需要提升面试能力和辅导项目的同学可以后台联系我~
点赞 评论 收藏
分享
评论
2
9
分享

创作者周榜

更多
牛客网
牛客企业服务