数字马力AI岗终面

#发面经攒人品##牛客AI配图神器#
1. 自我介绍

2. 平时有接触过什么多线程

3. 说下五个核心参数

4. 任务队列满了该怎么做

5. 平时有过sql调优的经验吗

6. 讲讲MVCC

7. 实习经历的黑名单怎么做的

8. 为什么要用这两种数据结构

9. 有遇到过redis高延迟的现象吗

10. AI项目里,生成流程优化是怎么做的

11. 权限校验怎么做的

12. 提示词你平时是怎么优化的

13. 你怎么判断提示词的质量呢

14. 你的AI项目怎么管理下上文的(记忆存储)

15. 你怎么测试你的AI生成的质量呢

16. 场景设计:高并发请求访问我的AI项目

17. 你们这个实际使用的智能体,初期是怎么做测评的

18. 平时有用过什么大模型

19. cursor有调过参数的经历吗

    反问

20. 面试官说一周以内会收到hr电话
全部评论
接到电话了吗
点赞 回复 分享
发布于 2025-12-09 15:29 重庆
我以为终面不怎么问技术了,合着三轮都是技术面😑
点赞 回复 分享
发布于 2025-12-05 16:50 湖南
面评什么时候到的
点赞 回复 分享
发布于 2025-12-05 16:38 江西
多久
点赞 回复 分享
发布于 2025-12-05 12:19 江西

相关推荐

攒人品中,祝大家都能拿到满意的Offer!1.项目拷打2. 实习拷打3. 你们选用的训练方法是什么?训练数据具体是怎么构造的?4. 这里的训练过程,我理解是前面有一段医学语料的预训练,然后再加一段对齐过程,是这样吗?5. 关于 SFT 阶段,数据具体是怎么生成的?6. SFT 之后,后面的 DPO 过程又是如何开展的?7. DPO 需要 Chosen 和 Rejected 至少两组对比数据,这两组数据你们是怎么得到的?8. 我们现在这边可能对于医疗业务关系比较远,问一下更加基础的知识。既然谈到 DPO,谈一下 DPO 以及后续其他偏好学习算法的区别,以及各自的优劣。9. 那么 GRPO 算法呢?10. DPO 算法有哪些缺点?11. 谈谈强化学习中 On-policy 和 Off-policy 的区别,你是怎么理解的?12. 看你不仅做训练,还负责基础设施 Infra 的搭建。训练基础设施也是归你亲自搭吗?13. 当时是在哪个项目里面参与 Infra 工作的14. 你刚才提到了 Megatron,你们试过 PyTorch 原生的 FSDP 吗?15. 既然试过 FSDP,为什么最终还是选用了 Megatron?,你们当时的选型考量是什么?16. 既然提到 FSDP 和 DeepSpeed ZeRO 的区别,FSDP 实现了 ZeRO 的哪几个阶段?ZeRO-1, 2 还是 3?17. 探讨一个现实的业务问题:我们核心业务是对话类 Agent 产品。经典架构是前端设有一个意图识别与路由环节,将客户请求分发到不同的子 Agent,由于子 Agent 功能实现完全不同,不能混在一起,所以路由非常关键,一旦路由错误就无法满意回答。另外,作为全链路的必经点,路由必须足够快。我们考虑在最前端用一个相对较小(如 7B 或 13B)的模型,通过后训练使其掌握特定领域知识,实现低延迟的路由。如果让你做这个模型,你会怎么去做?
查看15道真题和解析
点赞 评论 收藏
分享
评论
点赞
6
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务