鹅厂 LLM算法一面 吓哭了...

面试很难,还是要多多练习!!!
1.实习介绍
2.你做的上下文扩大具体是怎么做的,原理是什么?
3.相关长文本是怎么做几阶段训练的?
4.除了所用的扩展方式,Deepseek、Llama的长文本扩展方案是什么,为什么选择当前方案而非其他?
5.若要将模型训练到1000K的上下文长度,该从哪些方面实现,其中的难点是什么?
6.32B模型训练用到了多少显卡?
7.若将上下文扩展到1000K,该如何估算训练的算力用量?
8.上下文扩展到1000K后,训练时显存会在哪些地方暴涨?
9.用GRPO做后训练的过程中,遇到的典型或较难的问题是什么?
10.针对上述问题,训练Skill的具体方式是什么?
11.从算法设计角度,该如何解决模型无效调用工具、工具调用参数失败的问题?
12.增量预训练中的"增量"具体指什么?13.增量预训练使用了多少数据,又该如何评估训练效果?
14.系统介绍一下自动化评分的背景、所用手段、解决的问题以及达到的效果
15.在模型迭代优化中,什么样的数据能进入数据闭环,筛选标准是什么?
16.模型工具调用的准确率是如何计算的?
17.分析PPO算法各部分在流程中的位置以及具体计算方式
18.抛开实际应用场景,PPO算法的损失包含哪几部分?
19.在实际流程中,PPO算法的相对优势是怎么计算的?
全部评论
你这没手撕?这点倒是爽啊
点赞 回复 分享
发布于 03-07 22:05 陕西

相关推荐

刚刷到字节跳动官方发的消息,确实被这波阵仗吓了一跳。在大家还在纠结今年行情是不是又“寒冬”的时候,字节直接甩出了史上规模最大的转正实习计划——ByteIntern。咱们直接看几个最硬的数,别被花里胡哨的宣传词绕晕了。首先是“量大”。全球招7000多人是什么概念?这几乎是把很多中型互联网公司的总人数都给招进来了。最关键的是,这次的资源分配非常精准:研发岗给了4800多个Offer,占比直接超过六成。说白了,字节今年还是要死磕技术,尤其是产品和AI领域,这对于咱们写代码的同学来说,绝对是今年最厚的一块肥肉。其次是大家最关心的“转正率”。官方直接白纸黑字写了:整体转正率超过50%。这意味着只要你进去了,不划水、正常干,每两个人里就有一个能直接拿校招Offer。对于2027届(2026年9月到2027年8月毕业)的同学来说,这不仅是实习,这简直就是通往大厂的快捷通道。不过,我也得泼盆冷水。坑位多,不代表门槛低。字节的实习面试出了名的爱考算法和工程实操,尤其是今年重点倾斜AI方向,如果你简历里有和AI相关的项目,优势还是有的。而且,转正率50%也意味着剩下那50%的人是陪跑的,进去之后的考核压力肯定不小。一句话总结: 27届的兄弟们,别犹豫了。今年字节这是铁了心要抢提前批的人才,现在投递就是占坑。与其等到明年秋招去千军万马挤独木桥,不如现在进去先占个工位,把转正名额攥在手里。
喵_coding:别逗了 50%转正率 仔细想想 就是转正与不转正
哪些公司开暑期实习了?
点赞 评论 收藏
分享
评论
2
6
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务