百度转正难度大吗

26届进了百度实习,听说不区分暑期日常,待90天能发起转正
全部评论
实习开始招了吗,不是调整锁hc了吗
点赞 回复 分享
发布于 昨天 20:24 上海

相关推荐

【实习】大模型强化学习基建与算法研发实习生📍 地点: [北京/上海/深圳] ⏱️ 形式: 实习(建议至少 3-6 个月)岗位职责 (Responsibilities)作为大模型基建团队的核心成员,你将参与最前沿的多模态大模型(VLM)后训练体系建设。你将直面大规模强化学习训练中的算法与系统挑战,核心职责包括:多模态工具调用能力建设: 负责多模态模型在 Tool Use / Function Calling 场景下的后训练(Post-training)流程搭建与优化,通过 SFT 及 RL 提升模型对复杂工具的理解与调用准确率。强化学习算法优化: 深入研究并改进主流对齐算法,针对多模态数据特性设计强化学习算法策略,解决奖励稀疏与训练不稳定问题。训练系统基建与性能调优: 参与大规模分布式强化学习训练框架的研发与维护,负责显存优化、通信优化及流水线并行策略调优,提升训练吞吐量与稳定性。前沿技术探索: 跟踪大模型多模态推理的最新论文,并将前沿算法快速复现并落地到内部基建中。任职要求 (Qualifications)学历背景: 计算机、人工智能、数学等相关专业硕士或博士在读,具有扎实的机器学习/深度学习理论基础。代码能力: 精通 Python 编程,熟练使用 PyTorch,具有优秀的代码风格和工程实现能力。算法基础:深入理解 Transformer 架构及 LLM/VLM 基本原理。熟悉强化学习基本理论,理解强化学习算法细节。加分项 (Preferred Qualifications):工具调用经验: 有 LLM Tool Learning、Agent 或 ReAct 相关的实战经验。基建经验: 熟悉 DeepSpeed, Megatron-LM, vLLM, Ray 等分布式训练/推理框架源码,或有 CUDA 算子优化经验。多模态经验: 熟悉 LLaVA, Qwen-VL 等多模态模型架构。开源/学术: 在顶级会议发表过论文,或在 Hugging Face / GitHub 有高 Star 开源项目贡献。
投递百度等公司6个岗位
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务