1️⃣一面 1.自我介绍2.召回的链路是什么样的3. mask是什么样的可以简单讲一下吗4. CLIP的结构,CLIP的loss怎么训练的5.指标对比baseline提升主要来自什么6.怎么构建负样本的7. Transformer的架构8.了解BART吗9.MMOE项目怎么构建的,用的什么loss10.MMOE、PLE的区别11.code:手写Multi-Head Attention2️⃣二面1.自我介绍2.了解哪些attention机制,attention公式为什么要除以根号下dk3. PLE之后的多任务模型了解吗4. 什么是BERT,了解哪些BERT的改进5.什么是BN?和LN的差异6. query的长度不一,网络中的哪部分使得最终向量长度一致的7.什么是target attention8.Transformer-based的模型主要有哪些9.介绍一下Wide&Deep和DCN这两个模型10.code:lc300 最长递增子序列📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。