秋招回顾1:超参数科技算法岗面经(上)

背景:楼主主要做多模态分类任务方面的研究,秋招主要投NLP和多模态岗位,如果机器学习岗位描述和我相符我也会投
我建议每一个秋招人都投投超参数科技磨练磨练,面试官人都很有耐心,问的也很细,答不上来还会提醒你,会让你对自己的项目细节有一些新的思考,听了宣讲觉得他们公司氛围也很好很年轻,奈何人家不要我
流程:投递岗位为自然语言处理研究员,投递时间n,一面时间m=n+16天,二面时间k=n+23天=m+7天,二面后一直排序,最终无疾而终
一面:
1. 自我介绍
2. 介绍一个项目
以下问题均针对不同项目的细节提出:
3. 多模态的任务,在BERT的输入,图片的输入是怎么处理的?
4. 图文匹配还有一些好用的loss可以了解一下:文本可以在BERT一侧像预训练一样加上一个MLM的loss;image text alignment,图片和文本对齐的loss
5. 图文匹配时,loss是采用的是像clip一样的对比学习的方式嘛?对比学习就是在同一个batch内组负样例。
6. 写二分类的交叉熵公式,多分类的交叉熵公式怎么写?
7. BERT一层encoder的transformer block包含了哪些元素,或者说算子是如何forward的?
8. BERT用的Normalization是LN,那LB和BN的区别是什么?为什么在文本中用LN更好,而在图片中要跨batch做normalization?
9. LN的公式?为什么要先把他映射为均值为0,方差为1,有给他乘上增益,加上偏置呢(为什么要再做scale)?
10. 写一下self-attention的公式
11. BERT用的优化器是什么?(Adam)它的优点是什么?
12. 蒸馏的temperature了解嘛
13. student学习的时候,是直接学习的teacher的预测值,还是预测值和label都有学习到?
14. 模型的loss是怎么算的?
15. word2vec里面,因为词表数过多,训练效率的问题有哪两种优化策略?(负采样;层次softmax,将词表构建为树的模型,从O(n)缩到O(logn))
16. LSTM在解决梯度爆炸或者梯度消失问题上有什么特点?三个门用到的激活函数是什么?(sigmoid,门是为了保证概率在0~1之间才能控制输出多少量)
17. 编程题:最长递增子序列
全部评论
多谢大佬的指点~
1 回复 分享
发布于 2023-03-21 13:00 天津
暑期实习面试了超参数,确实面试体验好好
点赞 回复 分享
发布于 2023-06-08 16:06 广东

相关推荐

给个offer灞:校友 是不是金die
点赞 评论 收藏
分享
点赞 评论 收藏
分享
|| 先说下主播个人情况:211本,暑期实习之前有过一段中大厂的后端实习,暑期拿过腾讯的实习offer,综合考虑业务和语言最终去了美团。实习期间体感还是不错的,5月初去的,去了就一直急着要需求做,担心因为没有产出导致转正失败,在第二个星期就和mt透露我希望能够留用。虽然第一个由于美团新人landing的友好性基本没做什么需求,但是后面也写出了小2w行的代码量(不包含单测)。中期经常主动加班赶需求,经常持续一两个星期加班到10点甚至更后面。mt对我确实不错,也是言传身教,实习期间给我讲了很多关于单测,ddd,set化等的理解,也是受益匪浅,此外在做需求的时候,也能看出把比较有含金量的部分交给我做...
菜菜菜小白菜菜菜:我在字节实习了四个月,有转正的压力所以周末大部分也在公司自学,也是因为一些原因转正拖的很久,这个点还没答辩,过段时间才回去答辩。整个不确定性的焦虑贯穿了我的秋招三个月,我也曾经犹豫过是不是应该放弃转正走秋招更快,最后因为沉没成本一直舍不得放弃,前前后后七个月真的挺累的,尤其是没有来字节实习的同学已经校招拿到意向时更加焦虑。这段时间也跟mentor聊了很多次,他告诉我未来工作上或者生活上,比这些更头疼的事情会更多,关键还是要调整好自己的心态。转正没有通过从过程上来看其实跟你自身没太大的关系,拖了三个月不出结果显然是ld的问题,并且今年美团最近的开奖大家似乎都不是很乐观,所以不去也罢。我在字节实习的时候,6月份有一个赶上春招末期的25届同事刚面进来,也拿到了小sp的薪水。不要对这件事有太大的压力,时代的问题罢了
点赞 评论 收藏
分享
评论
6
39
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务