SHEIN-算法-一面面经

  1. Transformer的多头注意力的作用面试官首先问到了Transformer模型中的多头注意力机制,要求我解释其作用和优势。
  2. blip2的架构,优势和之前多模态模型的区别接着,面试官让我详细描述blip2的架构,并比较其与之前多模态模型的区别和优势。
  3. 知识蒸馏和无监督样本训练然后,面试官询问了关于知识蒸馏和无监督样本训练的相关知识,要求我解释两者的概念和应用场景。
  4. 无序数组的中位数面试官还给出了一个无序数组,要求我找出其中位数,并解释我的解题思路。
  5. 一个元素在一个有序数组的第一次出现位置最后,面试官让我编写一个算法,找出一个元素在有序数组中第一次出现的位置。
全部评论
能问下佬是什么方向嘛
点赞 回复 分享
发布于 2024-09-17 19:10 湖南
为什么我一面是hr面
点赞 回复 分享
发布于 2024-09-13 12:53 上海

相关推荐

那一天的Java_Java起来:他本来公司就是做这个的,不就是正常的游戏客户端和服务器开发,软硬件联动,有啥恶心不恶心的,提前告诉你就是怕你接受不了,接受不了就没必要再往后走流程浪费时间,虽然这公司是一坨。
点赞 评论 收藏
分享
评论
2
12
分享

创作者周榜

更多
牛客网
牛客企业服务