【感知算法面经十三】滴滴感知算法面经(二面)
🌈 专注分享自动驾驶算法相关技术干货内容,新闻资讯,大厂实习和秋招准备思路以及算法岗求职面经
💫 自动驾驶感知算法实习、秋招面经合集可看智驾感知算法求职面经(答案版)专栏:
《旷视迈驰自动驾驶感知算法实习面经》
《美团自动车配送部感知算法实习面经》
《小米自动驾驶感知算法实习面经》
《轻舟智航自动驾驶感知算法实习面经》
《博世自动驾驶感知算法实习面经》
《地平线自动驾驶感知算法提前批面经》
《百度自动驾驶感知算法提前批面经》
《蔚来自动驾驶感知算法实习面经》
《华为车Bu自动驾驶感知算法秋招面经》
《理想自动驾驶感知算法秋招面经》
《零一汽车自动驾驶感知算法实习面经》
《商汤自动驾驶感知算法实习面经》
《滴滴自动驾驶感知算法秋招面经》
《酷睿程自动驾驶感知算法实习面经》
《速腾聚创自动驾驶感知算法秋招面经》
该专栏主要汇总了本人在秋招和实习期间拿到的华为车Bu、小米、轻舟智航、理想、地平线、百度、美团、蔚来、旷视等多家公司Offer的感知算法面经,并将面试中的重点问题给出了参考答案,供各位同学参考。
第二轮技术面试
- Q1:自我介绍
- 面试官询问了发表的2D目标检测论文并考察了一些深度学习八股
- Q2:介绍Transformer中的自注意力机制和交叉注意力机制
- A2:
- (一)自注意力机制:自注意力计算的是同一序列内部不同位置之间的相互关系,自注意力计算过程中的Q、K、V来自同一个特征向量。
- (二)交叉注意力机制:交叉注意力机制是计算不同序列之间不同位置的相互关系,用于实现两个序列信息的交互过程。交叉注意力计算过程中的Q来自一组特征向量,K和V来自于一组特征向量。
- Q3:Vision Transformer和Swin-Transformer的区别
- A3:
- (一)计算量的区别:Vision Transformer是对输入计算全局注意力特征,其自注意力的计算量与图像的大小成正比。而Swin Transformer将自注意力的计算限制在了一个窗口内,显著降低了自注意力的计算量。
剩余60%内容,订阅专栏后可继续查看/也可单篇购买
一站式智驾感知算法求职宝典 文章被收录于专栏
作为24届上岸自动驾驶感知算法的学长,将自己在秋招中的面试经验和心得体会总结成《一站式智驾感知算法求职宝典》,宝典包含【求职简历如何准备】、【论文/实习/科研项目经历如何包装】、【Leetcode算法刷题思路】、【十五家智驾感知算法面经汇总(附参考答案)】、【CV&感知算法面试常见代码题目汇总(附参考代码)】、【互联网大厂笔试ACM模式输入输出类型题目汇总】等多个板块,祝你拿下心仪Offer!