科大讯飞内推科大讯飞内推

好了,下面说入职感受,先说食宿吧: 首先公司提供半年免费住宿,室友人很好,环境还可以,离公司很近,但公司不提供房补,后续租房也不提供。 其次公司食堂挺好吃的,但是对我而言分量有点少,所以每次都拿四五个菜,还有就是目前只有A2 A4两个食堂,中午食堂有点挤。 最重要的工作方面‼️(以时间为序,以下仅代表我的感受和观点,基于我的经历) 首先,与之前两家公司不同的是: 1.日常我工作汇报关系是:我→小组长→导师→直属leader。 之前一般都是直接向直属leader汇报(插一句,导师人很好,很幸运。) 2.工作内容:85%是非常基础的活,同时也是我在前两家公司基本不会涉及的,一般都是交由子公司或者专门的数据团队去处理。15%是我这个岗位的本职工作,但是基础的活非常累也非常耗费时间,以至于我实际连15%的时间和精力都无法分配到本职工作上,但是我绩效有50%是与本职工作的产出挂钩。此外,我15%的职责与同部门另一个组的工作内容比较重合,而我目前开展本职工作需要与他们对齐,导致时常觉得受限(这也是我目前比较疑惑的点) 3.团队氛围:之前的两家公司基本同组成员8~12个之间,正式、子公司、外包一般是分开办公的。而在这边是坐一起办公,实际意义上(可能有子公司和其他组织的成员)与我同组的人有近40个。没有像前两家一样的入组欢迎仪式,刚来的时候同事们还是比较冷漠(心碎)。但目前在慢慢变好啦,可能大家都比较社恐 4.关于工作时间:相较于字节和腾讯,科大讯飞的加班还是比较频繁,在前两家公司的时候,通常是当天工作没完成,或者有重大项目要推进的时候才加一两天。在科大讯飞这边,有的项目周二周四默认加班,有的就经常加,作为摸鱼大王的我端午节前也连加了三天班(之前从未有过,直接气炸)。 工作时间一般是早上九点之前到,不加班六点走,加班的话到晚上九点,没有加班费,但九点以后打车报销。可以换调休,我调休过两次,但是其中一次依旧在调休期间完成了正常的工作量

科大讯飞2025届飞凡计划春招今日启动!!

项目介绍:飞凡计划是科大讯飞开设的战略级校园人才招募和培养项目,面向全球优秀的应届毕业生,致力于发掘和培养公司未来的领导者。

招聘岗位:飞凡计划-研发方向、飞凡计划-产品方向、飞凡计划-综合方向

你可以收获:顶尖人工智能产业平台,极具挑战的业务课题;极具竞争力的薪酬及福利;双导师带教机制;定制化、宽视野的发展路径

内推链接:https://campus.iflytek.com/home?refrenceCode=ALQPA27

内推码:ALQPA27(内推简历优先筛选,有流程问题欢迎联系)大家投递完可以在评论区打上姓名缩写+岗位,我来确认有没有内推成功喽

#牛友职场人脉来了##内推#
全部评论
hbx 计算机视觉
点赞 回复 分享
发布于 03-27 00:18 上海
招暑期实习吗
点赞 回复 分享
发布于 03-26 22:08 浙江

相关推荐

03-27 16:31
腾讯_HR
腾讯-混元大模型面经-华5硕部门与岗位:TEG - 混元大模型团队 - 大模型对齐一面自我介绍,过实习,讲论文,论文过的比较细,有说的笼统的地方面试官会实时进行询问交流了解哪些大模型,简要挑一两个介绍一下,当时说了 Qwen 和 DeepSeek,然后面试官又问了这两个有什么区别接着上一问,为什么大家都开始探索 MoE 架构,MoE 相比 Dense 有什么好处在之前实习的时候用 LoRA 微调过 Qwen,于是问了有没有全量微调过,有没有对比过两者的性能表现讲一下大模型训练和推理的流程,SFT 和 RLHF 的作用分别是什么在 RLHF 中,目前主流的强化学习算法有哪几个,写一下损失函数的表达式代码:22. 括号生成代码:多头自注意力一面问的八股还是比较多的,问的也比较细,而且还写了两道代码题,整个面试花的时间也比较多,大概一个半小时左右二面自我介绍,过实习和论文,面试官会一起进行探讨,包括工作的动机、贡献和结果,也会提一些问题和建议之前实习用 DeepSpeed 微调过 Qwen2-72B,于是面试官问了 ZeRO-1,ZeRO-2,ZeRO-3 三个模式的区别当时你用 DeepSpeed ZeRO-3 来微调 Qwen2-72B,每一张卡占用的显存大概是多少,估算一下为什么是占这么多的显存除了 DeepSpeed,还用过其他的什么优化方法吗我看你也用到了 LoRA,知道 LoRA 的原理吗,A 和 B 两个矩阵怎么初始化,有了解过其他的初始化方法吗对 RLHF 了解的多吗代码:3. 无重复字符的最长子串二面更多的是结合具体的工作来问的,从用到的东西来引出问题,问的也比较灵活。当然因为部门主要是做对齐的,所以也大概聊了聊 RLHF三面自我介绍,挑一个觉得做的比较好的论文和实习讲一下,面试官问的比较详细,为什么选现在这种方案,为什么 work,其他方案有考虑吗在微调 Qwen 的时候,数据是怎么构造的,有用到什么数据清洗方法吗,数据配比是怎么做的讲一下 RLHF 的流程,之前有用 RLHF 做过模型对齐吗在做对齐的时候,为什么 SFT 之后还要做 RLHF,只用 SFT 可以吗知道哪些强化学习算法,除了 PPO 和 DPO 这些呢,DeepSeek 用的 GRPO 相比于 GPT 的 PPO 做了哪些改进开放题:对目前大模型的发展有什么看法代码:零钱的两个题 322. 零钱兑换518. 零钱兑换 II三面面试官更聚焦于对齐这一块的内容,考的比较深。由于之前没有接触过强化学习,答得还是比较吃力的,不过面试官还挺好的,会一起讨论来做引导四面自我介绍,过论文和实习,问的也比较细,这里能明显的感受出来面试官的视角更系统,会把这些工作串起来问我看你简历上没写 RLHF,平常有用过 RLHF 吗推导一下神经网络反向传播的过程一道排列组合的概率题开放题:你觉得大模型目前还有哪些可以改进的点四面整体更看重思维和基础,没有考察什么八股总结一共四轮技术面,整体来说强度比较大,对于大模型八股的考察比较细,对大模型的理解问的也比较深刻,包括一些数理逻辑基础,考察的比较全面需要内推码的可以用下面这个链接:内推链接:https://join.qq.com/resume.html?k=ANQI6RfQ3rhPS2dpyIkeSw
腾讯
|
实习
|
超多精选岗位
点赞 评论 收藏
分享
评论
1
1
分享

创作者周榜

更多
牛客网
牛客企业服务