蚂蚁测开一面

本来投的是蚂蚁后端结果简历秒挂,于是在投一个测试进面试了。

1.为什么投测开,后端和测开更倾向哪个

2.有了解过测试相关的一些技术或者是其他方面的内容?

3.抽奖中使用哪些算法优化?

4.项目做完可以还可以考虑哪些优化

5.抽奖人数多少,奖品数量多少,奖品类别多少

6.attention 机制是什么?

7.在抽奖中attention 机制可以用到哪些方面

8.讲一下比赛过程当中遇到的一个团队协作的问题

9.团队分工,团队分歧,怎么解决,时间紧的话怎么解决

10.对大模型的理解

11.豆包和deepseek区别?

12.豆包和deepseek的技术方案

13.支付宝里面的智能助理,评测这个智能助理的一个准确性,怎么考虑测评

14.在学校学习大模型的渠道来源有哪些?

15.一个网页突然之间打开很慢了,怎么去分析它具体的原因是什么

16.怎样检测这个内存泄露,以及检测原理

17.强引用和弱引用区别?

反问:业务:蚂蚁国际什么的,出结果时间,HC数量#牛客AI配图神器#

后续:过了半个小时显示通过,又是一位温柔小姐姐嘿嘿

全部评论
还有后续的面经吗
点赞 回复 分享
发布于 07-27 11:16 上海
求一个佬的bg
点赞 回复 分享
发布于 04-24 02:17 江苏
佬,蚂蚁base是哪的
点赞 回复 分享
发布于 04-22 17:54 陕西
你有测试经验嘛
点赞 回复 分享
发布于 04-21 18:00 陕西

相关推荐

一、手撕 题目:给定一个字符串 s 和一个整数 k,每隔 k 个字符反转一次,返回最终字符串。简单很快就写出来了二、八股1.自注意力机制是什么?计算复杂度怎么算?吟唱: 通过query-key相似度计算权重,对value加权求和,建模长距离依赖。O(n平方)n为序列长度。2.KV-Cache的如何加速推理?继续吟唱:生成时缓存已经计算过的kv,避免重复计算。3.LoRA的原理是什么?与P-Tuning、Adapter的异同点?LoRA的参数选择对模型性能有何影响?三连吟唱:原理是冻结原始权重,训练低秩矩阵参数。异同在于lora训练参数,p-tuning只优化了prompt嵌入。4.介绍下RLHF的基本流程,与DPO的差异是什么?主动吟唱:RLHF三段式,sft用高质量数据集微调,rm训练对比学习模型用于打分,ppo通过rl泛化增强。dpo直接优化偏好数据,省去rm和ppo。5.分布式训练中的TP、PP、DP分别是什么?TP按tensor维度拆分,PP按网络层数分段流水线执行,DP数据并行,复制模型副本分散计算6.flash-attention的原理是什么?这里回答没太好,只讲了通过内存层次结构什么的减少I/O瓶颈7.DeepSeek的MoA架构与MoE有何区别?moe通过门控机制选择专家子网络,参数规模增加但训练难度大。moa则用多个agent回答,通过数据迭代优化,缓解偏科。8.如何处理数据不均衡问题?上采样小样本,课程学习三、项目与实习1.agent实习主要负责哪些模块?动作规划,memory经验,evaluation pipeline,后训练,很多模块都参与了,面试官也挺震惊哈哈。这里聊比较多就不po了。2.记忆系统如何实现视觉-语言特征对齐?clip映射到联合embbeding上3.如果视觉模块误判,如何通过语言纠错?检测矛盾关键字,通过反馈触发重试。4.具体讲讲怎么构建evaluation pipeline的?做了数据爬取,版本控制,llm打分
查看13道真题和解析
点赞 评论 收藏
分享
评论
5
20
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务