正实现的小目标 level
获赞
101
粉丝
35
关注
0
看过 TA
788
上海交通大学
2026
算法工程师
IP属地:江苏
暂未填写个人简介
私信
关注
一、少量八股1.介绍下self-attention,计算其时间复杂度。2.为什么要用multi-head attention?3.kv cache是什么?它为什么能极大地提升推理速度?4.PPO的clip机制?在线强化学习和离线强化学习有什么区别?RLHF是哪一种?5.为什么要用reference model?为了解决什么问题?二、项目深挖1.如何让多个agent协同工作的?举个具体的协同机制例子。2.如果一个agent误判导致策略冲突,如何处理?3.你们有没有用到类似AutoGen或LangChain的框架?为什么选这个框架?4.你是怎么设计agent的记忆系统?5.长期记忆如何存储?如果历史记录量非常大,怎么优化查询效率?6.有没有做记忆衰退,避免旧数据干扰新任务?7.你们这种模块堆叠的架构是怎么设计视觉问答模块和动作模块的协同逻辑的?8.你简历里的人机协作流程,具体是什么意思?怎么设计人工干预与agent自动处理的平衡?9.human feedback是怎么被agent消化吸收的?有没有用rl进行策略更新?三、业务理解1.有没有做过模型压缩?比如在车载端或低端设备上的推理加速?2.如果量化后理解能力下降怎么办?怎么做精度补偿?3.你怎么处理响应速度与推理精度之间的tradeoff?是先召回再精排,还是单次生成?4.如果要做电商agent,你会选择哪些模态的信息作为输入?比如文本评论、图像、视频、购买记录?5.有没有做过A/B测试?
查看19道真题和解析
0 点赞 评论 收藏
分享
一面/二面 压力都不大,只有一些八股值得参考:1.交叉熵损失的物理含义是什么?2.KL散度的本质是什么?3.用什么loss比较多?我说一般就mse,又通过focal loss,让我接着介绍,如何平衡正负样本。三面,我以为轻松了结果是最硬核的技术面,问了一堆八股,并且要求现写公式,不到最后都不能放松警惕啊:1.讲讲python的dict底层是怎么实现的?hash实现2.如何解决hash碰撞?说了个线性探测(其他真不记得了)3.C++的STL还熟悉吗?完全不会,3年没写了。4.好吧那不问了,flash-attention了解吗,讲讲原理?5.kv cache了解吗?6.Q要cache吗?7.讲讲常见的标准化,LayerNorm,RMSNorm?8.实际应用你觉得什么区别吗,现在哪个用的多?9.问了这么多才开始讲项目,等我讲完面试官直接总结,你的项目是在高维特征添加了一些low-level的视觉信息做work,现在有个开放的问题想问你:大模型的语料是有限的,但是搜推链路上token可能是无限的,比如可能一个蛋糕,每个用户的每一次蛋糕购买记录都是独立的,蛋糕1,2...100,你要如何解决?10.似乎我没理解对,追问不对不是这个意思,重新问:大模型的数据是非常多的,但是搜推的数据可能很高维度而且不多,比如用户看到图->点击右上角->再点到推荐购买->.......,整个特征链路非常长,这种数据量不像大模型训有非常丰富的语料,你如何解决这个训练问题?
查看14道真题和解析
0 点赞 评论 收藏
分享

创作者周榜

更多
关注他的用户也关注了:
牛客网
牛客网在线编程
牛客网题解
牛客企业服务