首页
题库
公司真题
专项练习
面试题库
在线编程
面试
面试经验
AI 模拟面试
简历
求职
学习
基础学习课
实战项目课
求职辅导课
专栏&文章
竞赛
搜索
我要招人
发布职位
发布职位、邀约牛人
更多企业解决方案
AI面试、笔试、校招、雇品
HR免费试用AI面试
最新面试提效必备
登录
/
注册
牛客736897938号
算法工程师
发布于北京
关注
已关注
取消关注
@理工科研究生自救指南:
互联网AIGC视觉大模型面经八股汇总
本人华五本硕电子信息专业,计算机视觉方向。本科阶段行情好一心想去互联网,想着水个研究生再去挣钱。本科毕业观察到互联网下坡路,转头准备选调,参与实习后也不太喜欢,最后转向央国企求职/读博。研二下找实习阶段随大流跟着同门一起投互联网,由于之前准备读博,有几篇论文在投,就把之前做的工作整合了一下,做了简历海投,历经几个大厂的多轮面试,最后也比较幸运的拿到了基本所有的大厂算法岗,有的是AIGC 有的是视觉。最后去了阿里实习拿了转正。秋招三手抓选手,凭着实习和论文集邮了算法多个ssp(虽然最后都没去),也考了选调(央选、江苏名优),面了一堆央国企(电网、银行、运营商),目标都是江浙沪base, 所以都基本是省分和南京上海杭州。回顾秋招,整理了以下的面经和八股供参考,如果你也有类似的选择或者困惑,也可以向我咨询交流,待遇、强度、氛围或多或少都有了解。总的来说,秋招不易,也没有所谓最好的选择。尽力而为,和自己和解最重要!面经概括总体依托于对项目深挖,一般一小时左右,面试官觉得时间还剩很多或者对项目不感兴趣,会出算法题让现场手撕,或者连着问八股。所以其他方面准备不足的话,项目是最核心的面试谈资,可以弥补自己的不足!反问环节,可以多问问他们刚才问的问题期待的答案是什么,他们在做的是什么业务,技术栈有哪些,没过的话积累经验,过了的话方便准备下一轮面试!项目方面,可以做一个精美的PPT在面试时主动展示,把握住面试的主导机会,引导面试官提问!淘天 AIGC图像算法面经一面(50min)八股:1、gan和diffusion区别2、diffusion优劣常见的采样方式及原理ddim dpm++ lcm turbo3、sdxl相比sd的改进 详细分析每个部分的改动意图4、开放问题 sora diffusion3看法 如何训练达成精准文字生成?项目:问了一大堆项目,三十分钟左右,问得很细,会结合项目问相关算法原理为什么要用这些方法、这些模块?项目要实现的效果?与现有别的方法的不同?能落地吗?二面(60min)搜索推荐算法背景面试官 没问项目 没问八股伯乐系统现场出了个统计结点热度的题,类似于同时有很多条数据输入,如何处理能提高接收处理效率。开放题,无标准答案,展示能力即可,会多少写多少,展现思路就行。三面(50min)P9主管面 整体问的更宏观。先问项目,要解决的问题是什么,能否落地,能应用到哪些场景,具体细节不会问的太深入,主要集中在能否落地,能带来什么价值。会围绕他们团队自身的业务方向结合项目拷打,他们是做淘宝直播穿搭推荐的,就会从你的项目出发,去结合他们的方向问一些开放式问题,考察你的思路,同时获得一些灵感。阿里云云安全视觉算法面经一面、二面电话面,问项目 给场景 人脸AIGC反欺诈Gan stable diffusion的基本原理 为什么gan难练styleGAN cycleGAN Faster R-CNN相较于基础模型都改了什么? 为什么快?SD为什么要用VAE?蚂蚁数字人视觉算法面经一面:项目拷打 半小时有没有关注过最新的的三维重建与SLAM结合的工作,评价一下他们的工作高斯重建的主要误差来自于哪里MVS点云采样和NeRF点云采样你认为哪个更好,为什么高斯代码里的一些细节(比如高斯球占据的tile近似计算等等)代码题 问了我用pytorch/cuda处理四线性插值的问题,不用写具体的,说思路还有给一个基本的伪代码二面:让我谈谈对数字人的理解 其潜在的应用价值 未来的构想高德地图 算法面经一面:一小时,拷打transformer你怎么理解AIGC?讲一下transformertransformer和cnn的区别transformer中embeding怎么做的位置编码你了解哪些形式三角函数位置编码有哪些好处,旋转位置编码呢position embeding 和input怎么融合的多头注意力相比单头优势,encode的时候多头会做融合吗?还是什么时候做融合?高频八股整理模型篇1.vit, dit原理(1) VIT(VisionTransformer)Vision Transformer(VIT)是由 Google 在 2020 年提出的一种基于 Transformer 的计算机视觉模型,主要用于图像分类等任务。VIT 的核心思想是用 Transformer 取代传统的 CNN 进行视觉特征提取。 核心原理图像分割成 Patch:VIT 首先将输入图像划分成多个固定大小的 Patch(如 16×16),然后将每个 Patch 视为一个 token,类似于 NLP 任务中的单词。线性投影:每个 Patch 通过线性变换映射到一个固定维度的向量,形成 token 序列。位置编码:因为 Transformer 不具备 CNN 的局部感受野特性,因此需要加入位置编码(Positional Encoding)来保留图像的空间信息。Transformer 编码:这些 token 通过多层 Transformer 进行处理,包括自注意力机制(Self-Attention)和前馈神经网络(FFN)。分类头:最终,VIT 在 token 之前添加一个 CLS token(分类 token),经过 Transformer 编码后用于分类。 优势:更强的全局特征建模能力,相比 CNN 更擅长捕捉长距离依赖关系。随着数据量增加,VIT 的性能会超越传统 CNN(如 ResNet)。缺点:对数据量要求较高,训练时需要大规模数据集(如 ImageNet-21k)。计算复杂度较高,自注意力机制的计算量随 token 数量增加呈二次增长。 (2) DIT(DiffusionTransformer)DIT(Diffusion Transformer)是一种基于Transformer 的扩散模型,用于图像生成任务。其核心思想是结合 Transformer 的强大建模能力和扩散模型的生成能力。 核心原理扩散模型(Diffusion Model):扩散模型的基本思路是通过多个步骤逐步去噪,从随机噪声恢复到目标图像。Transformer 结构:DIT 使用 Transformer 作为主干网络,而非 CNN 结构。传统扩散模型通常使用 U-Net 作为去噪网络,而 DIT 采用类似 VIT 的结构,通过自注意力机制处理扩散过程中的图像表示。时间步编码(Timestep Encoding):DIT 需要引入时间步信息,以便 Transformer 了解当前去噪的阶段。跨 Patch 交互:不同于 CNN 主要关注局部特征,DIT 能够更好地建模全局特征,并提升生成质量。 优势:具备 Transformer 的全局注意力机制,相比 CNN 结构的扩散模型更能捕捉长距离依赖信息。生成的图像质量更高,尤其在大规模数据上表现更优。缺点:计算复杂度较高,扩散模型本身已较慢,结合 Transformer 进一步增加计算需求。训练和推理成本比基于 CNN 的扩散模型更高。 transformers篇1.介绍下transformers的注意力机制Transformers的注意力机制是深度学习模型中的核心概念,尤其在自然语言处理(NLP)领域中,变换器(Transformer)架构已经成为主流。其核心思想就是通过注意力机制(Attention Mechanism)来捕捉序列中各个元素之间的关系,克服了传统RNN(循环神经网络)和LSTM(长短期记忆网络)在处理长序列时的困难。 注意力机制概述注意力机制的主要目标是根据输入的各个部分的重要性动态地调整输出的加权和。对于给定的输入,模型通过计算注意力权重(也叫注意力分数)来决定每个输入元素对当前输出的影响程度。 在传统的Seq2Seq模型中,常常使用注意力机制来改进编码器和解码器之间的连接,使得解码器可以更好地聚焦于输入的不同部分,从而得到更精确的输出。 2.为什么transformers的注意力机制需要多头在自注意力机制中,每个输入元素(如词向量)与所有其他元素进行交互,通过计算各自的注意力权重来决定如何组合信息。具体步骤如下: 输入表示(Input Embedding): 输入序列中的每个元素(例如词语的词嵌入)都会映射为一个向量,称为输入表示。训练篇1、如何缓解大模型训练的灾难性遗忘?灾难性遗忘(Catastrophic Forgetting) 是指在训练大模型时,模型在学习新知识的过程中,可能会丢失或覆盖之前学到的知识。这个问题在大规模预训练和持续学习(Continual Learning)中尤为突出。缓解灾难性遗忘的方法主要包括正则化方法、参数隔离方法、回放方法和架构设计优化等。 1. 正则化方法(Regularization-based Methods)正则化方法通过对模型的参数进行约束,防止其在新任务训练时过度偏离之前学到的知识。 (1) 权重约束 (Elastic Weight Consolidation, EWC)通过 费舍尔信息矩阵(Fisher Information Matrix) 计算模型参数的重要性,在新任务训练时,对重要参数进行较强的约束,减少其偏移。直观上,相当于在训练新任务时,给之前学习过的重要参数加上“弹簧”,防止它们发生剧烈变化。适用于:多任务学习、持续学习。模型细节篇bert的位置编码是什么样的,目前大模型用的是什么位置编码BERT 使用的是 可学习的位置编码(Learnable Positional Embedding),即每个位置的编码是一个可训练的向量,并随着模型训练自动学习最优的位置表示。与 Transformer 论文的 sin/cos 编码不同,BERT 的位置编码是参数化的,并且通过训练不断优化。 为什么 BERT 选择可学习位置编码? 更灵活:不像 sin/cos 编码那样固定,BERT 位置编码可以适应 NLP 任务中的不同数据分布。更适合预训练迁移:可以学习特定的模式,使得预训练在下游任务中表现更好。 目前大模型用的是什么位置编码?不同大模型使用不同的 位置编码策略,从 可学习绝对位置编码 逐渐演变为 相对位置编码 & 旋转位置编码,以适应 更长序列和更复杂的任务。 (1)绝对位置编码(Learnable Absolute Position Embedding)模型:BERT、GPT-2方式:每个位置有一个单独的 可学习向量,与 token embedding 维度相同,训练时一起优化。 优点:适用于较短文本,模型能学习最优的位置表示。缺点:无法处理超长序列,超过最大长度(如 512)后无法泛化。 (2)相对位置编码(Relative Position Embedding)模型:T5、DeBERTa、Transformer-XL方式:让注意力计算时引入 相对位置信息,强调 token 之间的相对关系,而不是绝对位置。 优点:更适合 长文本,可处理不同长度的输入,不局限于固定的 max_len。缺点:实现比绝对位置编码更复杂。(3)旋转位置编码(Rotary Positional Embedding, RoPE)模型:GPT-3.5、GPT-4、LLaMA、ChatGLM方式:使用旋转变换来表示 token 的相对位置信息,并在 Q/K 矩阵计算时直接加入。 优点:支持 超长序列,计算时不需要额外的参数,计算效率更高。缺点:较难直观解释,不像可学习编码那样可以直接调参优化。 RoPE 的核心思想: 让相邻token 之间的角度变化是等比例的,这样相对位置信息可以自然融入注意力计算中。这种方法不需要额外的位置参数,只依赖矩阵运算,因此对 超长文本(如 32K token) 处理更高效。多模态篇1.介绍 dpo 算法原理DPO(Direct Preference Optimization)算法原理解析DPO是一种用于 对齐大模型(如 LLMs) 的强化学习方法,旨在取代传统的 PPO(Proximal Policy Optimization) 进行 偏好学习,用于训练 对齐人类偏好的 AI。 为什么需要 DPO?在训练 对齐人类偏好的 AI(如 ChatGPT) 时,通常采用 RLHF(Reinforcement Learning with Human Feedback) 方法: 收集偏好数据(例如用户对两个回答的偏好选择)。用奖励模型(RM)学习偏好分数。用 PPO(强化学习)微调大模型。但 PPO 有以下问题: 不稳定:强化学习优化目标复杂,容易崩塌。难以训练:涉及 KL 约束、奖励建模等步骤,训练难度大。计算开销大:需要训练一个单独的奖励模型(RM),然后用 PPO 微调模型。DPO 直接优化偏好数据,无需强化学习,解决了上述问题。 DPO 的核心思路DPO 的目标是让 模型生成符合人类偏好的输出,但 不需要显式的奖励模型,只用偏好数据就能优化策略。
点赞 54
评论 14
全部评论
推荐
最新
楼层
暂无评论,快来抢首评~
相关推荐
02-21 12:47
饿了么_后端研发工程师(准入职员工)
春秋航空内推,春秋航空内推码
春秋✈️ 综合管理类培训生 初试面经搜遍全网没有面经,趁着下午刚面完出一波攒攒秋招人品,希望对uu们有帮助在上海线下面的,半小时左右一波人,是群面哦~记得打印两份简历带上流程:1、自我介绍2、对春秋航空成本管控方面的理解(同组uu答的都好全面,完全没有什么补充hhhh)3、有关财务方面的实习经历介绍,谈谈自己参与的工作、对岗位的理解、对工作提效的想法之类的4、什么渠道投递的简历5、自己的实习投递的渠道是什么6、横向多岗位实习较垂直实习的优劣势(本人实习岗位比较杂hhh)7、对未来的规划,是否想好要做财务方面8、例行反问总体而言,面试官们都非常好,超级温柔~春秋航空2026届秋招启动~ 【我们是...
点赞
评论
收藏
分享
昨天 20:27
门头沟学院 C++
记住这几个回答,起码面试不减分
为什么想来我们公司?疯狂舔他,平台好、业务稳定,技术氛围比较足,想在这里长期稳定发展,也能学到真东西 . 别太直接说: 钱多, 显得多少有点呆期望薪资去网上搜一搜,看看有没有这个公司的大致薪资范围,报一个中位数;如果没查到,就说自己没什么经验,愿意服从公司安排。怎么看待加班作为一个新人以完成工作为前提,需要的时候我会配合加班,以尽快熟悉业务、提升自己为主。职业规划先把技术和业务学好,尽快独立负责工作,长期走技术路线。对公司了解投之前从网上瞅瞅公司干啥的,就猛猛夸,说他很适合长期发展,非常想加入,多好多好,显得自己比较了解这个公司。优点缺点优点:爱学习缺点:太爱学习了 比较死脑筋;纯爱学习没啥爱...
查看12道真题和解析
点赞
评论
收藏
分享
01-27 19:52
字节跳动_AiCoding_AI应用全栈开发工程师(准入职员工)
浅浅分享一下近况
最终还是婉拒了小红书的offer,厚着脸皮回了字节。其实这次字节不管是组内的氛围、HR的沟通体验,都比之前好太多,开的薪资也还算过得去,这些都是让我下定决心的原因之一。但最核心的,还是抵不住对Agent的兴趣,选择了Ai Coding这么一个方向。因为很多大佬讲过,在未来比较火的还是属于那些更加垂类的Agent,而Ai Coding恰好是Coding Agent这么一个领域,本质上还是程序员群体和泛程序员群体这个圈子的。目前也已经在提前实习,也是全栈这么一个岗位。就像最近阿里P10针对前端后端等等不再那么区分,确实在Agent方向不太区分这个。尤其是我们自己做AI Coding的内容,基本上90%左右的内容都是AI生成的,AI代码仓库贡献率也是我们的指标之一。有人说他不好用,那肯定是用的姿态不太对。基本上用对Skill、Rules 加上比较好的大模型基本都能Cover你的大部分需求,更别说Claude、Cursor这种目前看来Top水准的Coding工具了(叠甲:起码在我看来是这样)。所以不太区分的主要原因,还是针对一些例如Claude Code、Cursor、Trae、Codex、CC等一大堆,他们有很多新的概念和架构提出,我们往往需要快速验证(MVP版本)来看效果。而全栈就是这么快速验证的一个手段,加上Ai Coding的辅助,目前看起来问题不大(仅仅针对Agent而言)。而且Coding的产品形态往往是一个Plugin、Cli之类的,本质还是属于大前端领域。不过针对业务后端来看,区分还是有必要的。大家很多人也说Agent不就是Prompt提示词工程么?是的没错,本质上还是提示词。不过现在也衍生出一个新的Context Eneering,抽象成一种架构思想(类比框架、或者你们业务架构,参考商品有商品发布架构来提效)。本质还是提示词,但是就是能否最大化利用整个上下文窗口来提升效果,这个还是有很多探索空间和玩法的,例如Cursor的思想:上下文万物皆文件, CoWork之类的。后续也有一些Ralph Loop啥的,还有Coding里面的Coding Act姿态。这种才是比较核心的点,而不是你让AI生成的那提示词,然后调用了一下大模型那么简单;也不是dify、LangGraph搭建了一套workflow,从一个node走到另外一个node那么简单。Agent和WorkFLow还是两回事,大部分人也没能很好的区分这一点。不过很多人说AI泡沫啥啥啥的,我们ld也常把这句话挂在嘴边:“说AI泡沫还是太大了”诸如此类。我觉得在AI的时代,懂一点还是会好一点,所以润去字节了。目前的实习生活呢,除了修一些Tools的问题,还包括对比Claude、Cursor、Trae在某些源码实现思想上的点,看看能不能迁移过来,感觉还是比较有意思。不过目前组内还是主要Follow比较多,希望下一个阶段就做一些更有创新的事情哈哈。这就是一个牛马大学生的最终牧场,希望能好好的吧。说不定下次发的时候,正式AI泡沫结束,然后我又回归传统后端这么一个结局了。欢迎交流👏,有不对的🙅不要骂博主(浅薄的认知),可以私聊交流
码农索隆:
和优秀的人,做有挑战的事
点赞
评论
收藏
分享
01-14 16:23
广州商学院 Java
可以去冲一下大厂吗
双非后端失败第N人:
如果准备好了可以直接投字节,字节是最不看学历的,只要想面,大概率都能给你约面。
双非有机会进大厂吗
点赞
评论
收藏
分享
昨天 12:02
武汉大学 算法工程师
暑期实习简历,计划投大模型开发或者大模型算法岗,求指导[好无辜]
大佬们看看,简历是否合适。(两个项目的“主要工作”写的很粗糙)然后还有一个问题请大佬们支支招... 我想走大模型相关岗位,但没想好去算法还是开发。算法岗肯定是首选,主要是怕我的项目经历跟算法岗离得远找不到实习。请大佬们给给建议
简历中的项目经历要怎么写
点赞
评论
收藏
分享
评论
点赞成功,聊一聊 >
点赞
收藏
分享
评论
提到的真题
返回内容
全站热榜
更多
1
...
实习租房焚决
4300
2
...
你们开工红包发了多少?评论抽2人送外卖券
3097
3
...
开水加点🍬
1510
4
...
雷军亲自发开工红包,挺有排面
896
5
...
没想到我因为一件“小事”彻底破防了
821
6
...
百度开工发了2千多块的红包
706
7
...
看到百度开工红包发了888,这波🍋了
688
8
...
组长说这是百度十年来第一次,我没绷住
619
9
...
专升本三本计科应届,Java学了又停、试了几份工都不合适,现在毕设快做完,是继续死磕Java开发,还
532
10
...
前端转大模型应用开发
508
创作者周榜
更多
正在热议
更多
#
有转正机会的小厂实习值得去吗?
#
3144次浏览
43人参与
#
工作不开心辞职是唯一出路吗
#
7281次浏览
25人参与
#
xx岗简历求拷打
#
2023次浏览
23人参与
#
联想求职进展汇总
#
334764次浏览
2220人参与
#
你最讨厌面试被问什么
#
4249次浏览
48人参与
#
非技术er求职现状
#
138792次浏览
821人参与
#
牛客租房专区
#
157763次浏览
1793人参与
#
如何缓解入职前的焦虑
#
261524次浏览
1468人参与
#
大家每天通勤多久?
#
87275次浏览
869人参与
#
金三银四,你有感觉到吗
#
688388次浏览
6073人参与
#
哪些公司开春招了?
#
29557次浏览
194人参与
#
记录实习开销
#
188349次浏览
1004人参与
#
毕业季等于分手季吗
#
54543次浏览
649人参与
#
你觉得今年春招回暖了吗
#
930340次浏览
7229人参与
#
掌握什么AI技能,会为你的求职大大加分
#
1870次浏览
66人参与
#
重来一次,我还会选择这个专业吗
#
418157次浏览
3902人参与
#
不给转正的实习,你还去吗
#
2632085次浏览
23089人参与
#
正在实习的你,几点下班
#
300878次浏览
2244人参与
#
开工第一帖
#
3924次浏览
80人参与
#
牛友们,签完三方你在忙什么?
#
137975次浏览
1003人参与
牛客网
牛客网在线编程
牛客网题解
牛客企业服务