米哈游26届校招-AI Infra 推理优化工程师
工作职责
1. 设计并实现高可用的大模型服务化部署调度,支持多用户并发、低延迟、弹性伸缩;
2. 深入优化推理引擎性能,解决实际业务场景中的性能瓶颈;
3. 持续跟进前沿相关技术并进行实验及调研;
任职要求
1. 硕士及以上学历,计算机、软件工程、人工智能等相关专业优先。
2. 具备较丰富的大语言模型/文生图/视频生成等推理服务优化经验。
3. 了解 KV-Cache / Page Attention / Speculative Decoding 等 LLM 推理优化方案。
4. 熟练掌握 Linux 环境下的 C/C++ 与 Python 语言,具备良好的代码规范和系统设计能力。
5. 熟练使用 Kubernetes/Docker 等容器化与服务化工具,了解 Ray 等调度框架,具备大规模集群部署与调度经验。
6. 具有独立解决问题的能力,良好的团队合作精神及沟通能力。
加分项
- 具有 LLM / Diffusion Transformer 部署和推理加速实战经验
- 具有长序列推理优化及大规模的推理服务实际落地经验
- 有硕士/博士阶段的计算机系统方向研究背景,或在国际顶级系统会议上(OSDI/SOSP/SIGCOMM/ASPLOS/NSDI等)发表过论文者优先
面向对象
2026届(2025.9-2026.8之间毕业)
投递链接
https://jobs.mihoyo.com/?sharePageId=121176&recommendationCode=052BT&isRecommendation=true#/campus/position/8328
#春招##内推##前端##后端##客户端##ai##产品##测试##实习#
1. 设计并实现高可用的大模型服务化部署调度,支持多用户并发、低延迟、弹性伸缩;
2. 深入优化推理引擎性能,解决实际业务场景中的性能瓶颈;
3. 持续跟进前沿相关技术并进行实验及调研;
任职要求
1. 硕士及以上学历,计算机、软件工程、人工智能等相关专业优先。
2. 具备较丰富的大语言模型/文生图/视频生成等推理服务优化经验。
3. 了解 KV-Cache / Page Attention / Speculative Decoding 等 LLM 推理优化方案。
4. 熟练掌握 Linux 环境下的 C/C++ 与 Python 语言,具备良好的代码规范和系统设计能力。
5. 熟练使用 Kubernetes/Docker 等容器化与服务化工具,了解 Ray 等调度框架,具备大规模集群部署与调度经验。
6. 具有独立解决问题的能力,良好的团队合作精神及沟通能力。
加分项
- 具有 LLM / Diffusion Transformer 部署和推理加速实战经验
- 具有长序列推理优化及大规模的推理服务实际落地经验
- 有硕士/博士阶段的计算机系统方向研究背景,或在国际顶级系统会议上(OSDI/SOSP/SIGCOMM/ASPLOS/NSDI等)发表过论文者优先
面向对象
2026届(2025.9-2026.8之间毕业)
投递链接
https://jobs.mihoyo.com/?sharePageId=121176&recommendationCode=052BT&isRecommendation=true#/campus/position/8328
#春招##内推##前端##后端##客户端##ai##产品##测试##实习#
全部评论
相关推荐
点赞 评论 收藏
分享
04-03 17:47
北京中南海业余大学 Java AI牛可乐:哇,听起来你很激动呢!杭州灵枢维度科技听起来很厉害呀~你逃课去白马培训,老冯会同意吗?不过既然你这么感兴趣,肯定是有原因的吧!
对了,想了解更多关于这家公司或者求职相关的问题吗?可以点击我的头像私信我哦,我可以帮你更详细地分析一下!
点赞 评论 收藏
分享
