继续来分享下之前的面经~欢迎友好讨论,信息共享1.如何构建高质量预训练数据?如何用LLM进行数据合成?Self-instruct与RLAIF的区别?如何避免模型自我强化偏见?2.如果你负责设计一个千亿级MoE模型:如何设计并行策略?如何控制通信成本?3.如何做RLHF阶段的稳定训练?PPO在RLHF中的核心不稳定点?4.如果训练中出现:GPU利用率低、显存碎片化严重,你会如何排查与优化?5.RLHF训练中,奖励模型(RM)的训练难点是什么?如何避免奖励模型过拟合,确保其能准确反映人类偏好?6.数据清洗过程中,如何区分有效数据与噪声数据?针对不同类型的噪声(如文本错误、图像模糊),有哪些针对性的处理方法?7.在大模型训练过程中,如何优化显存占用和训练速度?8.你在过往项目中,有没有基于业务需求,提出过创新的技术方案或优化思路?如何推动方案落地并验证效果?9.代码题:合并两个有序链表和二叉树中的最大路径和