机械人的秋招历程+面经(1)

简介:男本科末流211,硕士中流985天坑专业(机械)水硕,无论文无竞赛无专利,有一段老师安排的实习。从七月底开始找工作,开始写简历,投一些不太想去的公司练练手,到11.18日签订三方,总共投递70余家,大部分都犹如石沉大海,投递之后一点消息都没有。由于家在河北,因此投递的公司大部分都是北京和天津居多。

秋招历程:
1.北京 北方工业有限公司 笔试挂
此公司是我秋招以来第一恶心的公司,7月初投递此公司实习,后七月底收到英语笔试和AI面试邀请,竟然安排在端午节,但还是硬着头皮做了,英语笔试和考研题型类似,竟然还包括了英语听力,接下来的英语AI面试也有英语,其他的就是常规的科研遇到的困难类似的题。后来就一点消息没有。秋招开始后,在10月底又给我发了笔试邀请,我还竟然想当然的觉得又有机会了,想着拿到一个算一个的想法,硬着头皮做了笔试,笔试要求依然十分的离谱,什么双机位啦,摄像头里不能出现其他人了,笔试开始包含了实习做过的英语听力、英语阅读、英语翻译一级一篇200字的英语作文。1.5小时的英语笔试后开始了第二场笔试,包括行测的数字推理、图形推理等各类题型,最后竟然还包括申论800字作文,整个秋招过程也没遇到这么变态的公司说实话。(奉劝学弟学妹们投递了这个公司就放弃吧,它不值得)。
2.天津 中航直哈飞 简历挂
秋招投递的第二家公司,想着用来练手的其实是,但是人家没给我机会,整个过程是7月初邮箱投递,然后就一直没信了,直到9月20多号,突然复活,一个老师给我打电话说是哈飞的,问我考虑不考虑哈尔滨的岗位,因为哈飞哈尔滨和天津都有岗位,我说不考虑,只考虑天津的,他说后面给我拉个面试群,然后两天后给我拉了面试群,但是离谱的是一直不安排面试,群里的hr一直不说话,直到中秋节才往群里发了面试流程,包括下载什么软件等,然后说中秋节后安排面试,然后群里共130多人都等着面试,中秋节过后两周依然没有安排面试,楼主以为是因为自己菜可能不安排了,后面群友在群里发问才知道群里都没有安排,此时hr依然还在说话,说在北方学校线下宣讲,后续群里的人都会安排到,信了他个鬼,此后直到11月中旬,隔一段时间都会有群友在问什么时候安排面试,但是此时hr仿佛消失一般,隐去了踪迹,有的只是群友的相互聊天了,就这样哈飞把群里的100多号人都给鸽了,属实有牌面。
#机械制造面试记录#
全部评论
被哈飞的操作疑惑住了
点赞 回复 分享
发布于 2022-11-21 18:14 广西
居然还有英语笔试吗…
点赞 回复 分享
发布于 2022-11-21 18:07 广西

相关推荐

牛客64354067...:第一题打表,5!以后都是0 第二题贪心,个位数会循环,限制一下循环次数不要一直试 第三题dfs 第四题不会
携程求职进展汇总
点赞 评论 收藏
分享
搜推+大模型算法一面面试题SFT & RL 方向先 answer 后 cot vs 先 cot 后 answer:两种 SFT 范式在训练效果上有什么差异?你是否做过对比实验?标注质量管控:如何保证人工标注数据的准确率达到预期标准?有哪些校验或质控手段?Checkpoint 选择:如何挑选合适的 SFT checkpoint,用于后续的 RLHF 阶段?多模态输入:图片是如何输入到 VLM 模型中的?一张图片通常会被编码为多少个 token?RL vs SFT:你认为强化学习(RL)和监督微调(SFT)的核心区别是什么?训练范式选择:为什么不直接从零开始做 RL,而是要采用「SFT → RL」的两阶段流程?RL 关键机制:什么是重要性采样?为什么在 RL 训练中要引入 CLIP 机制?策略类型差异:On-policy 和 Off-policy 算法的核心区别是什么?各自的适用场景有哪些?八股文(Transformer 基础)因果掩码作用:Transformer Decoder 中为什么必须使用自回归因果掩码?缩放点积注意力:为什么注意力分数要除以d​k​?(补充:Layernorm 前置后,除以d​可将方差归一到 1,避免 softmax 梯度饱和)推荐系统方向生成式推荐 vs 传统推荐:两者的核心区别是什么?生成式推荐的目标是什么?你如何看待它的未来发展前景?指标计算:AUC、HR、NDCG 的计算公式分别是什么?GAUC 和 AUC 的区别在哪里?编码方式:如何在模型中加入时间编码和位置编码?常用的位置编码方法有哪些?Coding:手撕 Multi-Head Attention(MHA) 实现二面面试题SFT & CoT 细节概率分布特性:在「先 cot 后 answer」的 SFT 范式下,为什么越靠后的 token 概率(prob)会越高?蒸馏噪声处理:用大模型蒸馏得到的 CoT 数据存在大量噪声,该如何缓解?VLM 幻觉问题:对 VLM 做 SFT 时,发现模型更信任文本信息,看图时反而容易产生幻觉,有哪些解决思路?RL 进阶PPO 核心:写出 PPO 中 GAE 的公式,并说明如何递归计算每个 token 的优势函数(advantage)?DPO 损失:写出 DPO 算法的损失函数公式?算法对比:GRPO 和 PPO 的核心区别是什么?GSPO 和 GRPO 又有哪些不同?训练稳定性:你遇到过 RL 中的熵塌缩(entropy collapse)和 reward hacking 问题吗?分别有哪些改进方法?最近有哪些新论文提出了新方案?采样困境:在采样类 RL 算法中,on-policy rollout 无法得到正确答案时该怎么办?自蒸馏:了解 Self-Distillation 吗?为什么要做自蒸馏?最近这方向有哪些代表性论文?震荡优化:RL 训练中 reward 或 loss 震荡严重,该如何调整?(提示:可从学习率 lr、KL 散度约束等方向入手)推荐系统进阶结构对比:HSTU 和 Transformer 结构的差异是什么?它和 OneRec 的整体流程有什么不同?SID 优化:如何降低 SID 碰撞率,同时提高特征利用率?量化算法:RQ-VAE 和 RQ-Kmeans 的算法原理分别是什么?OneRec 工程:OneRec 中是如何将 SID 加入模型词表和 tokenizer 的?多模态融合:如何更好地结合文本特征和多模态特征?模型演进:Rankmixer 是如何发展到 Tokenmixer 的?Coding:给定一个行内严格递增的 m×n 矩阵,找到矩阵中第 k 大的数
面试官最爱问的 AI 问...
点赞 评论 收藏
分享
评论
2
2
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务