首页 / 硕士
#

硕士

#
63826次浏览 957人互动
此刻你想和大家分享什么
热门 最新
大模型应用开发面经 (5年经验)
时间范围 近半年实际面过的公司阿里、腾讯、美团、字节、快手、同程、京东、360、keep、滴滴、印象笔记、作业帮、彩云科技、蓝色光标、江城互娱、Aviagames、Hungry Stdios、深言科技、即时科技、RockFlow、格灵深瞳、百融云创、印象笔记、网龙、 HiDream.ai、昆仑万维、数驱互动、Authing先说总结面试内容 & 难度个人觉得,在llm应用的面试题上,没有太多复杂、高深的问题,不像上来让你说一下分布式锁怎么设计然后死扣设计细节或是描述一下MVCC原理这种偏高难度的八股文问题(当然也遇到了一两次),究其原因以下几点,一是大模型应用目前仍没有很成熟且被广泛接纳的方案,都还在探索;二是很多公司今年刚开始all in AI(我司all进去的比较早点),面试官也懂得不多,例如RAG这个东西,大部分的面试题无非是“你觉得RAG中最难的是什么?(文档切割喽)”、“你是怎么解决幻觉问题的?”,“微调和RAG的区别是啥?”等等,如果你做过RAG加上你经常看技术文章结合你的“侃侃而谈”,基本面试官都觉得ok。但这里着重说一下我觉得当前非常重要且极大概率提升面试通过率的的一个技术点,就是掌握微调原理并且做过动手做过微调工作再加上动手部署过大模型,这是我面试中最常被问到而又只能说没做过的问题,当然大部分公司都有专门的算法团队去做这件事,自己到没机会参与其中,也是可以理解的。算法题:一半是DP问题,还有一部分难度是easy的问题,总体上都是“老熟人”,但是,你即使写出来,面试不一定就能过,有的干脆就不考算法题。八股文:明显比之前少很多,这个和面试的岗位有关系,LLM应用的岗位更偏实践,所有很多一面就是leader面,直接问项目,除非一面也不懂LLM的东西,就会考八股文,但总的来说,八股少了,但是绝对不可以不准备,好几次挂在这上面,别小瞧它。岗位内容:游戏公司:基本上是LLM + AB test for 游戏策划;BI 分析;游戏社区客服助手;toC: Agent 个人助手toB: Agent for 解决方案other: 通用 Agent 平台;公司内部AI助手、平台;Agent for 运维offer会有很多横向对比,如果你期望薪资比较高,对方说要在等等,基本上凉了。大部分涨幅基本是不到20%的,但我的期望是30%左右,最后还是拿到了(要有一点点耐心,还要有一定的运气)。不要眼高手低,先拿一个低于自己预期的offer,再慢慢谈,前提是公司想要你。规划好时间,集中面试,集中对比,由于我时间线拉的过长,后面安排的很乱。再总结每次面完都要复盘,没答好的问题,一定要重新梳理答案。没把握问题的可以直接说不会,别给个你自己都听不懂的答案。简历一定要让大模型润色,但自己要check一遍,别吹过头了。多看技术文章,扩展技术视野,提高二面面试官对你的印象。表达一定要流畅清晰,不要断断续续的,面试官会觉得你思路不清晰。项目效果评估是个很重要的问题,不管你的技术多炫酷,终究还是要看效果,看落地效果。面试题这里想到多少写多少LLM 基础大模型是怎么训练出来的?Transform 的架构,Encoder 和 Decoder 是什么?Function Call 是怎么训练的?微调的方案有哪些?自己做过没有?大模型分词器是什么?Embedding 是什么?你们用的那个模型?Lib介绍一下 langchian介绍一下 autogen有没有用过大模型的网关框架(litellm)为什么手搓agent,而不是用框架?mcp 是什么?和Function Call 有什么区别?有没有实践过?A2A 了解吗?PromptReAct 是啥?怎么实现的?CoT 是啥?为啥效果好呢?有啥缺点?Prompt Caching 是什么?温度值/top-p/top-k 分别是什么?各个场景下的最佳设置是什么?RAG你介绍一下RAG 是什么?最难的地方是哪?文档切割策略有哪些?怎么规避语义被切割掉的问题?多路召回是什么?文档怎么存的?粒度是多大?用的什么数据库?为啥要用到图数据库?向量数据库的对比有没有做过?Qdrant 性能如何?量级是多大?有没有性能瓶颈?怎么规避大模型的幻觉?微调和RAG的优劣势?怎么量化你的回答效果? 例如检索的效果、回答的效果。Workflow怎么做的任务拆分?为什么要拆分? 效果如何?怎么提升效果?text2sql 怎么做的?怎么提高准确率?如何润色query,目的是什么?code-generation 是什么做的?如何确保准确性?现在再让你设计你会怎么做?(replan)效果是怎么量化的?Agent介绍一下你的 Agent 项目长短期记忆是怎么做的?记忆是怎么存的?粒度是多少?怎么用的?Function Call 是什么做的?你最大的难题是什么?你是怎么提高效果的?怎么降低延迟的?端到端延迟如何优化的?介绍一下single-agent、multi-agent的设计方案有哪些?反思机制是什么做的?为什么要用反思?如何看待当下的LLM应用的趋势和方向为什么要用Webrtc?它和ws的区别是什么?agent服务高可用、稳健性是怎么保证的?llm 服务并发太高了怎么办?系统设计题短链系统分布式锁的设计给你一部长篇小说,怎么做文档切割?怎么做到论文翻译,并且格式尽可能和原来的统一游戏社区客服助手设计。如何绑定游戏黑话,如何利用好公司内部的文档结合线上问题快速定位项目工程代码有问题的地方有很多结构化和非结构化数据,怎么分析,再怎么得出我要的结论。八股go的内存分配策略、GMP、GCpython 的内存分配策略、GCredis 用过那些?mget 底层什么实现的?、zset怎么实现的?mysql 索引怎么设计最好?数据库隔离级别?mvcc是怎么实现的?分布式锁是什么实现的?kafka的 reblance 是什么?会产生那些问题?怎么保证数据不丢?fastapi 设计原理?go 中 net/http 如何处理的tcp粘包问题http2 是什么?比http1.1有什么优势?Linux 网络性能调优的方式如何定位Linux中的pid、端口号等等个人在每个项目的里的角色是什么?承担那些工作?项目是几个人在做?为什么离职、每次离职的原因是什么?平常怎么学习的?怎么接触到大模型的最新进展的?对大模型将来的应用发展有什么看法?你将来的职业规划是什么?
大模型小坛:所有面试题可以开源给大家 后台T一下
点赞 评论 收藏
分享
算法岗面试八股(一)
点赞 评论 收藏
分享
【面试必备】大模型经典面试题+详细答案:背八股文才是王道,不然你面试撑不过五分钟
最近春招正在如火如荼地进行中,看到很多人的简历上都包含大模型相关的工作,各家大厂和初创都很舍得给钱,动辄百万年包也变得不再稀奇。因此在大模型纵横的这个时代,不仅大模型技术越来越卷,就连大模型相关的岗位和面试也开始越来越卷了。本文汇总了107道大模型算法岗常见的面试题(含答案),内容如下:一、基础篇1、目前主流的开源模型体系有哪些?Transformer体系:由Google提出的Transformer 模型及其变体,如BERT、GPT 等。PyTorch Lightning:一个基于PyTorch的轻量级深度学习框架,用于快速原型设计和实验。TensorFlow Model Garden:TensorFlow官方提供的一系列预训练模型和模型架构。Hugging Face Transformers:一个流行的开源库,提供了大量预训练模型和工具,用于NLP 任务。2、prefix LM 和 causal LM 区别是什么?prefix LM (前缀语言模型):在输入序列的开头添加一个可学习的任务相关的前缀,然后使用这个前缀和输入序列一起生成输出。这种方法可以引导模型生成适应特定任务的输出。causal LM (因果语言模型):也称为自回归语言模型,它根据之前生成的 token 预测下一个token。在生成文本时,模型只能根据已经生成的部分生成后续部分,不能访问未来的信息。3、涌现能力是啥原因?涌现能力 (Emergent Ability) 是指模型在训练过程中突然表现出的新的、之前未曾预料到的能力。这种现象通常发生在大型模型中,原因是大型模型具有更高的表示能力和更多的参数,可以更好地捕捉数据中的模式和关联。随着模型规模的增加,它们能够自动学习到更复杂、更抽象的概念和规律,从而展现出涌现能力。4、大模型LLM的架构介绍?大模型LLM(Large Language Models) 通常采用基于Transformer的架构。Transformer模型由多个编码器或解码器层组成,每个层包含多头自注意力机制和前馈神经网络。这些层可以并行处理输入序列中的所有位置,捕获长距离依赖关系。大模型通常具有数十亿甚至数千亿个参数,可以处理大量的文本数据,并在各种NLP任务中表现出色。前馈神经网络 (Feedforward Neural Network) 是一种最基础的神经网络类型,它的信息流动是单向的,从输入层经过一个或多个隐藏层,最终到达输出层。在前馈神经网络中,神经元之间的连接不会形成闭环,这意味着信号在前向传播过程中不会回溯。前馈神经网络的基本组成单元是神经元,每个神经元都会对输入信号进行加权求和,然后通过一个激活函数产生输出。激活函数通常是非线性的,它决定了神经元的输出是否应该被激活,从而允许网络学习复杂和非线性的函数。前馈神经网络在模式识别、函数逼近、分类、回归等多个领域都有应用。例如,在图像识别任务中,网络的输入层节点可能对应于图像的像素值,而输出层节点可能代表不同类别的概率分布。训练前馈神经网络通常涉及反向传播 (Backpropagation) 算法,这是一种有效的学习算法,通过计算输出层的误差,并将这些误差信号沿网络反向传播,以调整连接权重。通过多次迭代这个过程,网络可以逐渐学习如何减少输出误差,从而实现对输入数据的正确分类或回归。在设计和训练前馈神经网络时,需要考虑多个因素,包括网络的层数、每层的神经元数目、激活函数的选择、学习速率、正则化策略等,这些都对网络的性能有重要影响。5、目前比较受欢迎的开源大模型有哪些?GPT系列:由OpenAl开发的生成式预训练模型,如 GPT-3。BERT系列:由Google开发的转换式预训练模型,如BERT、RoBERTa等。T5系列:由Google开发的基于Transformer的编码器-解码器模型,如T5、mT5等。6、目前大模型模型结构都有哪些?Transformer:基于自注意力机制的模型,包括编码器、解码器和编码器-解码器结构。GPT系列:基于自注意力机制的生成式预训练模型,采用解码器结构。BERT系列:基于自注意力机制的转换式预训练模型,采用编码器结构。T5系列:基于Transformer的编码器-解码器模型。7、prefix LM 和 causal LM、encoder-decoder 区别及各自有什么优缺点?prefix LM:通过在输入序列前添加可学习的任务相关前缀,引导模型生成适应特定任务的输 出。优点是可以减少对预训练模型参数的修改,降低过拟合风险;缺点是可能受到前缀表示长度的限制,无法充分捕捉任务相关的信息。causal LM:根据之前生成的 token预测下一个 token, 可以生成连贯的文本。优点是可以生成灵 活的文本,适应各种生成任务;缺点是无法访问未来的信息,可能生成不一致或有误的内容。encoder-decoder:由编码器和解码器组成,编码器将输入序列编码为固定长度的向量,解码器 根据编码器的输出生成输出序列。优点是可以处理输入和输出序列不同长度的任务,如机器翻译;缺点是模型结构较为复杂,训练和推理计算量较大。8、模型幻觉是什么?业内解决方案是什么?模型幻觉是指模型在生成文本时产生的不准确、无关或虚构的信息。这通常发生在模型在缺乏足够信息的情况下进行推理或生成时。业内的解决方案包括:使用更多的数据和更高质量的训练数据来提高模型的泛化和准确性。引入外部知识源,如知识库或事实检查工具,以提供额外的信息和支持。强化模型的推理能力和逻辑推理,使其能够更好地处理复杂问题和避免幻觉。9、大模型的Tokenizer的实现方法及原理?大模型的Tokenizer通常使用字节对编码 (Byte-Pair Encoding,BPE) 算法。BPE算法通过迭代地将最频繁出现的字节对合并成新的符号,来构建一个词汇表。在训练过程中,模型会学习这些符号的嵌入表示。Tokenizer将输入文本分割成符号序列,然后将其转换为模型可以处理的数字表示。这种方法可以有效地处理大量文本数据,并减少词汇表的规模。10、ChatGLM3的词表实现方法?ChatGLM3 使用了一种改进的词表实现方法。它首先使用字节对编码 (BPE) 算法构建一个基本的词表,然后在训练过程中通过不断更新词表来引入新的词汇。具体来说,ChatGLM3 在训练 过程中会根据输入数据动态地合并出现频率较高的字节对,从而形成新的词汇。这样可以有效地处理大量文本数据,并减少词汇表的规模。同时,ChatGLM3 还使用了一种特殊的词表分割方法,将词表分为多个片段,并在训练过程中逐步更新这些片段,以提高模型的泛化能力和适应性。11、GPT3、LLAMA、ChatGLM 的 Layer Normalization 的区别是什么?各自的优缺点是什么?GPT3:采用了Post-Layer Normalization (后标准化)的结构,即先进行自注意力或前馈神经网络的计算,然后进行Layer Normalization。这种结构有助于稳定训练过程,提高模型性能。LLAMA:采用了Pre-Layer Normalization (前标准化)的结构,即先进行Layer Normalization,然后进行自注意力或前馈神经网络的计算。这种结构有助于提高模型的泛化能力和鲁棒性。ChatGLM:采用了Post-Layer Normalization的结构,类似于GPT3。这种结构可以提高模型的性能和稳定性。
大模型海文:所有面试题可以开源给大家 后台T一下
点赞 评论 收藏
分享
拿下第一份大模型实习时间线
bg: 双9,2024级硕,传统工科专业,算法知识范围仅限知道一些机器学习理论,了解基本的pytorch语法,打算砖码算法岗位,计划研1下找一段实习,从今年3月初已经开始在各大平台搜索实习经验了。转码时间线:2.28开始有实习想法,但是在岗位上纠结,在后端,大模型岗位纠结。最终决定大模型岗3.1-3.7吴恩达机器学习3.8-3.21李沐深度学习3.22开始刷leedcode3.24开始做简历3.24-3.25在github上跑开源项目:BERT部署+文本分类3.25-4.1在github上跑开源项目:ChatGLM-6B部署+LLaMA-Factory微调+Prompt模板3.27注册BOSS直聘3.28参加了第一场初创公司大模型的面试,感觉面试还可以,基本上能hold住但最后也都无疾而终了,盲猜可能是技术栈不太相符以及觉着我是低年级。3.29-4.5在github上跑开源项目:Llama3-8B+RAG4.7收到三家公司面试4.7下午面试一家中厂,问题太工程,而我是凑开源项目+偏算法理论性的科研,完全经不住拷打。4.8收到第一个offer,岗位感觉偏大模型调研,拒绝。4.10收到第二个offer,离学校路程半小时+大模型核心岗,但小厂,接收。回归整个实习准备,对我个人而言其实最难的是不断细化调整方向,以及在面试pass被无数次的心态调整,但总体来说是看着自己一步步的进步。记得第一次修改简历时,我对着空白文档发呆了两个小时,如今却能快速抓住岗位JD的关键词进行精准匹配;曾经在群面中紧张到声音发抖,现在面对压力面试已经能从容展现逻辑思维。
大模型海文:项目地址可以开源给大家 后台T一下
点赞 评论 收藏
分享
拿下第一份大模型实习时间线
bg: 双9,2024级硕,传统工科专业,算法知识范围仅限知道一些机器学习理论,了解基本的pytorch语法,打算砖码算法岗位,计划研1下找一段实习,从今年3月初已经开始在各大平台搜索实习经验了。转码时间线:2.28开始有实习想法,但是在岗位上纠结,在后端,大模型岗位纠结。最终决定大模型岗3.1-3.7吴恩达机器学习3.8-3.21李沐深度学习3.22开始刷leedcode3.24开始做简历3.24-3.25在github上跑开源项目:BERT部署+文本分类3.25-4.1在github上跑开源项目:ChatGLM-6B部署+LLaMA-Factory微调+Prompt模板3.27注册BOSS直聘3.28参加了第一场初创公司大模型的面试,感觉面试还可以,基本上能hold住但最后也都无疾而终了,盲猜可能是技术栈不太相符以及觉着我是低年级。3.29-4.5在github上跑开源项目:Llama3-8B+RAG4.7收到三家公司面试4.7下午面试一家中厂,问题太工程,而我是凑开源项目+偏算法理论性的科研,完全经不住拷打。4.8收到第一个offer,岗位感觉偏大模型调研,拒绝。4.10收到第二个offer,离学校路程半小时+大模型核心岗,但小厂,接收。回归整个实习准备,对我个人而言其实最难的是不断细化调整方向,以及在面试pass被无数次的心态调整,但总体来说是看着自己一步步的进步。记得第一次修改简历时,我对着空白文档发呆了两个小时,如今却能快速抓住岗位JD的关键词进行精准匹配;曾经在群面中紧张到声音发抖,现在面对压力面试已经能从容展现逻辑思维。
点赞 评论 收藏
分享
2023-12-21 23:38
西安交通大学 Java
无论文双九硕找不到实习
双9硕研二,计算机科班,本科末9。硕士没发论文没项目没实习方向是语音,想找个寒假实习。java面试官问我为啥找java不找算法,本科就找java现在有三年工作经验了。算法直接告诉我方向不对,我们只招nlp、搜索、推荐,cv,你的方向不符合。我出来能干啥。学医的同学说硕士可以留院,隔壁学通信的学姐说是没太问技术,帝都研究所20+年薪,牛客帖子自动化人手一个offer卷不动了,快哭了。拼死拼活上学上了十几年,前半辈子都在上学,争第一,争不过就卷绩点,初高中累的跟狗一样,到了大学发现周围牛人更多,焦虑、胃疼,准备考研焦虑,中途保研,疯了一样投夏令营,然后疯狂被拒,好不容易读研了,感觉到了周围人对自己智商的碾压。以前还能靠努力,现在发现周围人都比自己聪明。卷不动了,真的心累。很委屈。不知道成长路上到底有几时是真正开心的。头发一把把的掉。跟别人说,别人目前没这个问题,还觉得我增加焦虑。明年秋招,发现自己啥也没有。我不知道到底哪里错了。很想哭。投了那么多实习,没动静。真的卷不动了。小时候不觉得有什么。现在真的感觉到了自身的局限性。国内真的太多人了。真的太多人了。今年的java也许就像考研的科软。在学校太久了,还傻乎乎的以为学历高工作就好找。接下来沉淀技术吧。打算学大数据开发。普通人怎么这么难。小镇做题家终于在这一刻,感受到了无力和局限。也许努力并不能换来想要的未来。但是还得努力。听说上一届秋招给的不满意,打算重新找的,有实习转正签了三方结果部门被裁的。也许是我技术不达标,还是不够。学校教育到底给了人什么。我思来想去,可能给人一段脱产准备就业的时光吧。到头来还是要到培训班网课学。没有别的意思。我是想说,如果我早几年学,本科就去开发,会不会比现在好很多。本科毕业那会,笛子点击即送。同学去了那里,现在已经工作了两年。今年秋招,比亚迪人满,校招现场人头攒动,不用说,面试难度肯定大幅度提升。怎么说呢,校园里温室的花朵,遭受了风雨的打击,现在想退缩发现无路可退。受点打击也好,知道市场供需关系了,就知道要改技术路线了。技术更迭太快,aigc是啥,新名词就得查半天。也许以后要自己做蛋糕。但是现在得找个工作啊。人生啊。只要在国内,就逃不过卷的命运。当然,那些家里有矿的怎么都能躺平。不过那些人也都很努力。
巴兹刻:你太焦虑了,你现在走开发,技术栈搞扎实,做俩项目,秋招随便找的。
点赞 评论 收藏
分享
25年7月最新大模型八股,背完offer拿到手软
点赞 评论 收藏
分享
985,211硕能不能一年80个
收收收of:大多数人20个就满意了,哦不有工作都满意了,还80个
点赞 评论 收藏
分享
05-22 07:58
已编辑
上海理工大学 Java
投票
浙江农商联合银行-数科部 软件开发 n*15 硕士其他
点赞 评论 收藏
分享
双非硕士深度学习出路
等offer的小哈:赶紧刷题,能做笔试了,出去投投简历就知道了,每年行情都不一样。如果说连实习都找不到,真的考虑换个方向。一定要记得刷题,多滚动复习,不然包忘的。我写了一个可以速成力扣的插件,复习比刷新题更重要,该插件基于anki,允许休息、允许突击复习,按记忆概率优先级排序每日题目,并且国际站和中国站数据分离,支持云同步和主动复习。edge浏览器和chrome都兼容,欢迎star和issue,仓库链接如下:https://github.com/xiaohajiayou/Leetcode-Mastery-Scheduler
点赞 评论 收藏
分享
玩命加载中
牛客网
牛客网在线编程
牛客网题解
牛客企业服务