蚂蚁暑期一面(第一次参加大厂面试)

本次面试全程八股拷打,没有问简历项目内容,个人感觉问的很基础,没有特别偏的地方,期待能进二面,同时也明显感觉到大厂对计算机网络和操作系统的重视,之前面那些小厂,这方便内容几乎都不提的。接下来要重点复习一下这部分的内容,同时对简历上写的技术栈部分查缺补漏。

面试流程:

计算机基础知识(计算机网络、操作系统、计算机组成原理、数据结构与算法)-共享屏幕写算法题-Java基础-闲聊&反问

具体流程面试官在一开始就会介绍一下,让我大致了解总体安排

计算机基础知识

1.计算机网络模型你有了解吗?

2.TCP是指什么呢?

3.TCP和UDP有什么区别?

4.TCP通过哪些手段实现安全、面向连接?

5.TCP/IP中的IP协议是什么呢?

6.简单叙述一下三次握手和四次挥手

7.为什么建立连接是三次,释放连接是四次?

8.什么是HTTP,什么是HTTPS呢?

9.HTTPS是基于什么样的加密过程去保证安全?

10.什么是进程?什么是线程?

11.多线程或者多进程都会涉及到死锁,那么什么是死锁呢?

12.总结一下死锁产生的四个必要条件?

13.进程常见的调度算法有哪些?随便列举几个就可以,不需要详细介绍(可能是觉得我前面吟唱八股文太久了hhh)

14.什么是内存的内核态和用户态?

15.操作系统常见的内存的管理方式有?面试官补充说分页分段那块

16.列举一些常见的排序算法?

17.简单讲一下快排的思路?

算法题

力扣原题:1.无重复字符的最长子串 2.有效的括号

不需要写输入输出,也不需要运行,在一个线上文档上写,面试官能实时看到我写的,当然我也能实时看到他写的。

第一个题目理解成子序列了(子序列可以不要求连续的),又补充了第二个题,第二个题目详细说了一下思路没写代码

Java基础

1.String a="123" String b="123",a==b返回什么?

2."=="和“equals”的区别是什么?

3.Integer c=23 Integer d=new Integer(23) c==d返回什么?

4.重写或者重载知道是啥吧?重写equals方法的时候还会重写什么方法呢?

5.面向对象的三大特性是什么?

6.Set是一个容器类型,常用的Java容器你用过哪些?

7.List你常用的有哪些?因为List是一个接口

8.ArrayList和LinkedList的底层结构了解过吗?(当时忍不住快笑出来了,这个题面试问了我好多次了)

9.HashSet底层是怎么样的?

10.JUC中Java常见的一些线程方式有哪些?(面试官看出来我不会,于是说有用过咱们就聊,没用过就不聊了,我尴尬的笑了笑说那不聊了,结果把面试官也给逗乐了。因为这部分内容在简历上是贷款部分,还没有背扎实)

11.JVM这块,聊聊你了解的概念,JVM内存结构,你简历写的最前面,那你应该最了解吧,讲讲呗。(我说了一些JVM数据区域,然后引申出堆和垃圾回收算法)回答完之后面试官说没问题啊,能看出来我自己肯定是看过的。

12.我看你简历都是Spring相关的,Spring的两大特性是什么?

-----------------------------------------------------------分界线--------------------------------------------------------------------

闲聊&反问

面试官说基础知识考察就这些了,接下来进入闲聊部分

1.你对AI这块有什么了解?

2.你知道DeepSeek为什么突然就爆火变得那么流行吗?

3.除了正常的问答大模型,有没有其他的了解?有没有涉及到大模型相关的研究方向?

4.说几个名词:Agent,RAG,知道是干什么的吗?

剩下的时间留给我,问我有没有什么问题面试官能帮我解决的。

1.给我面试提一些建议。

  • 面试官让我把简历里面的东西一定弄熟,JUC这块我就没回答好,理论上来说写在简历里面的,都能正常去聊出来。
  • 说了我的优势,不是在背书,回答面试官问题的时候,背书的感觉不重,这点在实习生招聘的时候还是比较难得的,要发扬一下。面试官个人认为我这块是不错的,其他的地方就见仁见智了,他还说找工作面试是一个很讲究缘分的事情,不要因为一个面试挂了就觉得自己一无是处,保持好心态就行。
  • AI部分是加分项,多了解一下相关的内容

2.问了一些部门的工作地点、暑期实习入职时间(三轮面试都过了和HR沟通)、和业务内容

  • 会有一些SP和SSP,因为优秀,会有一些额外的面试,所以同一组的面试理论上面试越多,评价就越好。

3.今天面试结果什么时候通知?

  • 顺利的话,理论上一周以内会有人联系我,不顺利的话会流到简历池等其他组来捞。

互相致谢,然后结束面试!

#大厂##暑期##蚂蚁#
全部评论
后续来了:一面后给我挂了,明明感觉和面试官聊的还很好的
1 回复 分享
发布于 04-10 09:16 四川
uu是蚂蚁哪个部门啊
1 回复 分享
发布于 04-02 09:54 北京
明天蚂蚁一面,感觉要被拷打
点赞 回复 分享
发布于 04-09 21:22 浙江
收藏操作系统题
点赞 回复 分享
发布于 04-09 09:07 安徽
你好问一下写代码的时候可以用其他语言吗,比如cpp?
点赞 回复 分享
发布于 04-06 11:52 云南
爱信等
点赞 回复 分享
发布于 04-03 11:16 陕西
我31号也是蚂蚁一面,ai金融部门好像叫,然后问的问题确实比较基础,项目拷打也还好,全回答出来了,就有个场景题答的不太行,问面试官有啥建议,还说我基础好,然后第二天就给我挂了,真的绷不住了
点赞 回复 分享
发布于 04-02 13:52 江苏
明天第一次面试 接好运
点赞 回复 分享
发布于 04-01 23:49 湖北
接好运
点赞 回复 分享
发布于 04-01 23:48 湖北

相关推荐

06-20 16:49
已编辑
字节跳动_llm开发(实习员工)
大家很多人私信我大模型应用开发具体是做啥,正好我讲讲在字节实习3个月+的体验。现在以字节为例我看很多岗位,其实大模型应用岗位已经被纳入后端开发(大多还是属于开发序列,至少我看不在算法序列)当中了,所以总的来说二者并没有特别明显的区别,起码在公司的角度来看。以我自己为例,我也是面的后端岗位然后进来做Agent的开发,Agent开发暂时不涉及模型的训练,最多包含一些模型的微调(而且公司有平台)。总的来说,Agent开发主要是搭建workflow,主要涉及Rag、微调、Mcp、Prompt这些方面,包含一些技术栈py:langgraph、langchain、langSmith,java: SpringAI、langchain4j?,所以我觉得后端的同学直接投问题不大,但是需要python or java or 大模型基本知识的landing。我之前也没接触过类似的知识,还在字节里面有LLM学习季的好东西,包含了大模型的基本知识Transformer、Prompt工程、Rag实战等等各种基本知识的解释和实操,让我非常循序并循序渐进的了解了这方面的知识,并且燃起了对大模型学习的兴趣,不得不说这一点还是很值得学习的。其次,就是在实习过程中,大家讨论的都是如何提高大模型产生的效果、以及有没有更加方便的Agent工具能够参与 or 使用提效,整体氛围很不错,而且都是去聊一些比较新的东西,例如之前刚出的Agent2Agent协议。在我看来,Agent主要是以Multi-Agent写作文的形式完成一系列任务,例如Deep-Research利用搜索、爬虫等工具,获取想要查询的网页并爬取文章内容,并且生成一篇分析报告,包括了一些意图识别、任务规划、记忆、工具调用等。在这个过程可以加很多环节去提高分析报告的效果(在Prompt的层面),例如反思、自问自答、知识库、human-in-loop等等,我觉得设计这些环节还是需要很多经验的,目前很多需要参考了类似的设计有比如cursor等。至于学历的要求,不知道现在岗位需不需要硕士的学历,但是我看来其实本科也能做,包括我在的组很多Agent内容在Cursor、Trae等工具的辅助下,前端也参与了不少(没错,前端也写Agent)。所以现在在各种Agent工具不断出现的今天,大厂更加需要“能够熟练使用AI工具的人”。举例,本组有个本科校招生,ld说后续会让他参与LLM的开发内容。当然,以上是我3个月浅薄的理解,我其实也看了不少内容的一些技术文章,整体来说大概是个这么情况,感觉技术壁垒不深,但是基于目前资料跟Java(黑马)比有所欠缺的情况下,还是筛掉了相当一部分人,感觉可冲(感觉比较缺人,至少我们组人很缺);但是基于我之前很多段实习都是Java开发,我觉得大模型应用更在乎大模型的效果而不是性能,可能还是关注点会跟Java开发有一些区别,优先级不一样,很少用到一些中间件来做啥,目前我在整个过程中只用过Redis来缓存stream流。实习体验:1.需求:字节跟我实习过的其他大厂有很明显的区别,他是直接安排活让你去做,至于你做不做得了,这个就另说了(即使有mentor的帮助)。有个群友举的例子很好“就是把一个不会游泳的初学者丢进水池里,如果活下来了,就学会了哈哈”。所以在我很久没写py、langchain等内容的基础上、没在字节做过任何需求的时候,让我开发了一个我认为很大的一个需求,大概6-7000行(两周),我为了不延期,主动加班到10-11点,才在排期前做完。。2.福利:经历了字节下午茶的LastDay目前已经没啥福利了,零食、水果还是不错;其次,允许实习生出差,刚来没几天就团建 + 出差去北京(出差了一周),那段时间还是很滋润的,在北京也小小旅游了一下(带着女朋友一起去了,当然她的不报销,只是住在一起)3.博客:当初在快手实习的时候,基本上看遍了Kstack的文章,但是在字节我目前还没看完,而且受益匪浅,感觉文章整体含金量要高不少(可能快手现在也变好了,不尬黑)。4.带教:mentor和ld对我很好,也让我进入了一个新的领域,目前正好考虑通过这次机会往大模型应用甚至大模型算法转型.正好有学长跟我说过,“阿里很值得去实习体验一次,哪怕不留下来”,我觉得“字节也很值得去体验一次,哪怕不留下来”,之前在前几家公司反而没这么深刻的感悟。如果对各位有帮助的话,求求🥺给朵小红花,有问题可以在评论区交流~
错开的雪季:mark感谢分享
投递字节跳动等公司8个岗位
点赞 评论 收藏
分享
1. 什么是MCP参考面试回答:MCP模型上下文协议)是为大型语言模型提供的一个统一标准化接口、让AI能够无缝连接各种外部数据源和工具。可以将它比作AI世界的USB接口—只要遵循这个协议标准、任何数据源或工具都能与语言模型实现即插即用比如说传统的AI只能依赖预训练的静态知识、无法获取实时数据。而通过MCP,模型可以动态访问最新信息、比如查询搜索引擎、读取本地文件、调用第三方API、甚至直接操作各种工具库。比如说可以访问Github、IDEA这个协议最大的价值是标准化、它是MCP的核心价值 - 你不需要为每个AI模型和每个工具之间的连接编写专门的代码、只要双方都支持MCP协议、它们就能自动"对话"。这大大简化了系统集成、降低了开发成本、也提高了系统的可扩展性总结就是 MCP 创建一个通用标准、使 AI 应用程序的开发和集成变得更加简单和统一2. 大模型输出出现重复和幻觉如何解决参考面试回答:在大模型生成内容时、出现重复和幻觉是两个常见的问题。重复指的是模型在生成文本时出现内容重复的现象、而幻觉则是指模型生成了看似合理但实际上不真实或不准确的信息。为了解决这两个问题、可以通过微调(fine-tuning)的方法进行优化为了解决这些问题、首先微调是非常有效的手段。首先可以确保用于训练的数据质量、要高质量的真实的信息。我们可以减少模型学到错误的信息。特别是领域特定的微调、能帮助模型更准确地生成内容,避免在特定领域(比如医疗、金融)中产生幻觉。此外在训练过程中引入惩罚机制、比如对模型生成重复或不准确内容进行惩罚、也能够引导模型生成更为多样和真实的内容。另一个有效的策略是使用参数高效微调(PEFT)、通过像LoRA这样的技术、在不改变模型主体结构的情况下调整部分参数、从而提高微调效率并减少幻觉的产生。同时强化学习与人类反馈(RLHF)也是一种非常有用的方法、结合人类的评价、模型可以在生成内容时更符合实际世界的逻辑,降低幻觉的风险。最后检索增强生成(RAG)技术也能够显著提高模型输出的准确性、通过在生成过程中引入外部知识库、确保模型生成的信息更为真实和可靠。总的来说:通过微调、引入惩罚机制、领域特定训练和强化学习等方法、可以有效减少大模型的重复和幻觉问题3. 什么是RAG?流程是什么?面试参考回答:RAG就是结合信息检索和生成式模型的技术。主要流程包括两个核心环节:检索:基于用户的输入、从外部知识库(如数据库、文档、网页)检索与问题相关的信息。通常使用向量化表示和向量数据库进行语义匹配。将知识库中的文档进行预处理、分块、清洗并转换为向量表示、存储在向量数据库中。常用的如 Faiss、Milvus等向量数据库存储所有文档向量。用户提问后、对问题进行向量化、并在数据库中执行最近邻搜索、找出语义最相近的 N 条内容然后就是增强:也可以说是构建 Prompt1.将检索到的信息作为上下文、输入给生成模型(如 GPT)。2.相比纯生成模型、RAG 能引用真实数据、减少幻觉(胡编乱造)最后就是由将增强后的上下文输入到大型语言模型、综合已有上下文生成最终生成最终的回答或内容。一句话总结: RAG = 向量搜索引擎 + 大模型、让 AI 回答更靠谱、减少幻觉4. RAG的详细完整的工作流程参考面试回答流程:RAG(检索增强生成)的完整流程可分为5个核心阶段:1. 用户提问2. 数据准备:清洗文档、分块处理(如PDF转文本切片)2. 向量化:使用嵌入模型(如BERT、BGE)将文本转为向量。也就是Embedding 向量化3. 索引存储:向量存入数据库(如Milvus、Faiss、Elasticsearch)。4. 检索增强:用户提问向量化后检索相关文档。也就是构建 Prompt (问题 + 检索内容)5. 生成答案:将检索结果与问题组合输入大模型生成回答。5. 在 RAG 中的 Embedding 嵌入是什么参考面试回答:Embedding是RAG系统的核心组件、Embedding(嵌入)技术本质上是将文本、图像等非结构化数据转换为高维向量的过程。在实际应用中Embedding解决了传统关键词检索的局限性。比如用户询问如何煮奶茶时、传统检索可能无法找到包含'奶茶制作步骤'的文档、因为它们字面上不匹配。而通过Embedding、系统能够理解这两个表达在语义上的相似性、从而返回相关内容。Embedding的工作原理是通过深度学习模型(如BERT、Sentence-Transformers等)将文本映射到768维或更高的向量空间。在RAG系统中、Embedding的核心价值在于建立查询和文档之间的语义桥梁。当系统收到用户问题后、会将其转化为向量、然后在预先索引的文档向量库中寻找最相似的内容、无论它们在字面表达上是否匹配。这种基于语义的检索方式大幅提升了信息获取的准确性和完整性、为生成模型提供了更高质量的上下文信息,从而产生更精准的回答6. 什么是LangChain参考面试回答:LangChain 是一个开源框架、专为快速构建复杂的大语言模型应用而设计。简单来说就是它集成和内置了很多我们开发 AI 大模型应用需要的东西、如内置文档加载器、向量数据库、HTTP API 封装、云服务适配器等、让咱们开箱即用、有点像咱们 Java 届的 Spring。它最大的特点是把模型调用、提示词管理、工具使用、记忆管理这些能力模块化了、让开发者可以很方便地把大模型和数据库、搜索引擎、API服务等结合起来,用链式结构组织复杂任务。主要支持复杂任务编排:通过 Chains(链)和 Agents(代理)将多个LLM调用和工具操作组合成工作流以及实现上下文管理Memory(记忆):通过 Memory 组件(如对话历史缓存、实体关系跟踪)实现长对话连贯性。6. 什么是向量数据库参考面试回答:我的理解是:向量数据库它可以将非结构化数据(如文本、图片、音频等)转换成高维向量的形式进行存储、通过向量数据库预先存储结构化段、实时检索最相关的 Top-K 内容作为上下文输入、并通过高效的相似性搜索算法、快速找到与目标向量最接近的数据项。传统数据库采用存储数据、主要用于精确匹配查询、常用的检索方式就是精确匹配、索引结构有像B+树或者倒排索引的结构。而向量数据库针对高维向量数据优化、支持近似最近邻(ANN)搜索算法、更适合语义相似性搜索。可以理解为TopN系列、检索TopK相关内容作为上下文输入。向量数据库预先向量化并建立索引(如 HNSW、IVF),实现亚秒级检索。代表性的向量数据库就是Milvus:一个开源的向量数据库系统8. 向量数据库的核心原理是什么?核心技术是什么参考面试回答:向量数据库的核心原理是通过将高维数据(如图像、文本)转换为多维向量、并基于相似性度量(如余弦相似度、欧氏距离),利用高效的索引结构和近似最近邻(ANN)算法、快速检索与目标最相似的向量结果。这一过程可概括为三个关键步骤:首先是向量化:我们通过嵌入模型将非结构化数据映射为稠密向量、比如用BERT处理文本、ResNet处理图像、或CLIP处理多模态数据。这些模型能捕获数据的语义或特征信息、通常生成128到2048维的向量其次是索引构建:为了高效检索、我们会采用分层导航小世界图(HNSW)等结构预处理向量。HNSW能将搜索复杂度降至对数级O(log N)。同时我们还会利用乘积量化(PQ)来压缩向量、减少内存占用、以及通过倒排索引(IVF)缩小搜索范围。最后是近似搜索:在实际应用中我们允许一定误差来提升速度。ANN算法会在准确性和效率间寻找平衡点、确保在毫秒级延迟内返回Top-K相似结果、同时保持95%以上的召回率。总的来说就四个核心层:向量化引擎->索引结构 ->相似度计算->搜索原始数据 → 向量化 → 索引构建(HNSW/PQ/LSH) → 输入查询向量 → ANN近似搜索 → 返回Top-K结果(格式明天再改吧___发帖于2025.6.25 00:47)
everll:更多见《牛客面经八股》https://www.nowcoder.com/exam/interview
点赞 评论 收藏
分享
评论
15
77
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务