字节番茄大模型算法实习一面面经

发一下问题给大家参考,攒攒人品!
1.项目拷打
2.实习拷打
3.论文拷打
4.你更希望找长期实习,那你觉得什么样的工作内容会让你更愿意一直做下去?
5.在xx那段主要是做数学解题这个方向,这个事情当时业务上是要解决什么问题?
6.一开始为什么是用OCR加文本这种方案?后面为什么觉得不太够用了?
7.你们后来换成多模态,是在哪些场景下收益最明显?
8.你做的那一整套训练流程,对最终效果提升最大的是哪一块?
9.模糊图效果提升挺多的,这块你觉得主要解决了什么问题?
10.你们在数据这块做了很多处理,比如去重这些,这些工作你觉得值不值?有没有量化过收益?
11.在强化学习这块具体是负责哪一部分?
12.奖励大概是怎么定义的?有没有遇到奖励不合理的情况?
13.强化学习训练过程中,有没有出现模型“学歪了”的情况?是怎么处理的?
14.在xx公司那段用的是GRPO,当时为什么会选这个方法?
15.小模型能做到80%以上这个效果,你觉得核心原因是什么?
16.在比赛里做的是Agent推荐,这个和传统推荐最大的区别是什么?
17.多代理那套方案里,哪一部分是你觉得最关键的?
18.做了memory,这个东西实际带来的提升是什么?
19.对现在这种Agent框架,比如OpenClaw,整体怎么看?
20.如果让你用OpenClaw去做一个发券或者运营自动化,你第一步会怎么设计?
21.你觉得这种Agent在业务里最大的风险点是什么?
全部评论
强烈推荐!这个笔记写得很清晰 http://github.com/AccumulateMore/CV
1 回复 分享
发布于 03-26 16:14 广东

相关推荐

攒人品中,祝大家都能拿到满意的Offer!1.项目拷打2生成式推荐本质上是在做隐空间到离散iD的映射,你如何证明你生成的 ID 序列保留了用户意图的最优压缩3.比如广告场景下不仅仅是预估 CTR。如果我们将生成式排序引入 GSP拍卖,大模型生成的候选列表概率分布,如何保证满足激励相容性4如果模型生成的排序导致广告主出现竞价上的博弈呢5.在H100集群上跑生成式重排,现在的瓶颈不在计算而在存储带宽。如果分阶段推理,我在Prefill阶段采用了FlashAttention-3,但在 Decoding 阶段因为 KV Cache 导致的Fragmented Memory太严重,怎么办6.推荐系统要求毫秒级响应对于1B规模的排序模型,如果我要做Speculative Decoding,你如何设计那个Draft Model?这个小模型是该学大模型的 Logits 分布,还是该学用户的Embedding聚类7.假设构建一个端到端生成式广告系统。现在面临一个场景:某个新入驻的土豪广告主投放了一批高质量视频,但由于模型对新 ID 的 Semantic Indexing 尚未完全对齐,导致第一波推荐给了错误的人群,产生了极高的 Negative Feedback,生成式模型的自回归特性会不断放大这种“第一印象”,导致该广告主瞬间被屏蔽你如何设计一套Online Counterfactual Correction这种,在不重新训练模型的前提下,通过修改 KV Cache里的隐藏状态来强行挽回这批广告的生命周期9.在短视频重排阶段使用了一个 10B 的生成式模型但是业务反馈说模型在学会了今天最火的某个梗以后,竟然忘记了如何处理用户对“长尾科普视频”的旧兴趣,发生了明显的 Catastrophic Forgetting,设计一种基于 Gradient Orthogonal Projection的优化器,确保模型在更新实时热点知识时,参数更新量在旧知识的Null Space内。10.都知道生成式模型有位置偏差从 Attention Entropy 的角度来看,为什么 $N$ 个候选 Item 在序列中的排列顺序会直接导致 Logits 的非线性漂移
查看9道真题和解析
点赞 评论 收藏
分享
评论
点赞
1
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务