华为 2012转计算产品线 经验帖

因为被私聊了很多,然后刚刚被hr说问题不大下周前offer,但由于2012这个前车之鉴暂时保留怀疑态度,写个转部门的时间线和非官方的经验帖,帮助有转部门意愿的朋友:
12.20 第1封转部门邮件
12.21-1.3 第2-52封转部门邮件,含地方平台抄送,均无有效回应
1.3 联系到消失了两个月的接头人,询问部门总负责人的联系方式,添加后回复我已上报确认(我也不知道她要确认啥) 后续无回复
1.4 收到转部门确认电话 解锁简历
1.8主管面 次日通过
1.11 报批,期望薪资,对华意向,承诺最晚两周意向
1.16 上面报批的人主动加微信,告知最晚下周
1.19 意向
总结,转部门重要的是多跟两边沟通,新部门无法帮助你解锁简历,你就自己多找人或者多发邮件催。整个大概流程逻辑是:原部门同意释放给平台,平台帮你流转至意向部门,意向部门同意接收,接收成功的标志如下,即开了一条新路径,后续等待面试通知即可。 #华为开奖那些事#  #24秋招避雷总结#
全部评论
点赞 回复 分享
发布于 2024-12-26 23:35 陕西
老哥,部门流转和解锁简历自己重新投递是不是不一样啊。我现在提出简历解锁申请,简历解锁以后,要是自己去投另一个部门,是不是就算重新投递了。可是部门流转不也得先结束流程解锁简历吗?这其中的区别是不是就是,一个是自己重新投新部门,一个是新部门主动把你的简历捞过去。
点赞 回复 分享
发布于 2024-03-12 10:44 辽宁
请问主管面都问啥了呀有技术问题吗
点赞 回复 分享
发布于 2024-02-03 10:00 辽宁
老哥是之前2012所有面试通过了后来转的部门么,怎么下面有个叉叉
点赞 回复 分享
发布于 2024-01-27 22:46 辽宁
佬,我和你差不多一样!不过我换岗位了,笔试面试全部重来,被2012坑死了
点赞 回复 分享
发布于 2024-01-24 21:28 江苏
佬发小奖状了嘛
点赞 回复 分享
发布于 2024-01-20 10:09 陕西
强啊,我转到计算池子10多天了,没有任何消息。。。
点赞 回复 分享
发布于 2024-01-19 22:46 浙江
佬太强了!
点赞 回复 分享
发布于 2024-01-18 16:55 江苏
麻烦问下转部门只需要主管面吗
点赞 回复 分享
发布于 2024-01-17 15:18 广东

相关推荐

翻遍各种大模型的实现,虽然结构上可能保留了 dropout 的实现,但是采样概率都设置为 0 了。唯一一个比较新的,还用 Dropout 的模型是 Meta 训练的 Galactica 模型。那为什么现在不用了呢?核心还是要弄清楚 Dropout 的使用场景。Dropout 之前在深度学习当中是一个特别好用的方法,可以防止过拟合,提高泛化。所以说,当模型较大,数据较少的时候,使用 Dropout 是比较合适的。现在大模型处在什么状态呢?✅预训练在预训练阶段,目前可能还是处于欠拟合的状态。之所以说可能,是基于目前公开的一些论文的出的结论。但是现在闭源的公司在采用大量数据合成的情况下,已经训练足够充分或者接近充分也说不定。以 llama 一系列论文为例,训练 llama 1 的时候,龙猫 Scaling law 里面提到 GPT3 是一个训练很不充分的模型。然后给出的数据配比的建议是,10B 的模型要采用 200B 的 token 来训练。但是 llama 1 采用了 7B 的模型,训练量 1T 的 token 发现性能依然有提升。而且预训练所有的语料一般只过一个 epoch,某些特定的领域可能过 2个 epoch,可以认为样本的重复率很低。所以,在数据足够多,多样性足够而且没有太多重复的情况下,大模型在预训练阶段仍然没有过拟合的风险。也就完全不需要采用 dropout。✅Dropout 就完全不需要了么?如果上面的条件不能满足,Dropout 还是有用武之地的。比如前面提到的 Galactica 模型。这个模型和其他大模型不太一样的地方是训练了 4.25 个 epoch,因为他们认为高质量的数据更重要一些,但是又没有那么多,所以就 repeat 数据了。在论文《To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis》 中,详细列举了数据 Repeat 对训练 LLM 的影响,并且证明了 Dropout 可以缓解数据重复带来的性能损失。在文章《Can LLMs learn from a single example?》中,也提到了在 SFT 的时候,少量的重复数据就会降低模型的性能。这也符合常理,SFT 的数据分布和预训练的通常是不太一样的,重复的数据会让模型拟合新的分布,从而忘掉旧的分布。文中同样也提到 Dropout 可以缓解数据重复带来的影响。所以 Dropout 在数据量较少,多样性不高,需要 repeat 的场景下,依然是一个减少过拟合的很方便的手段。比如现在已经有一些在 LoRA 微调的时候采用 Dropout 的研究了。      
点赞 评论 收藏
分享
评论
14
36
分享

创作者周榜

更多
牛客网
牛客企业服务