华为marketing与解决方案部,解决方案技术工程师是?

给了电话offer,地点西安,薪资没说,求问是干什么的?本质就是软件测试吗?未来有发展吗?本人是男生。
岗位职责
在这里,你可以接触到数通、传输、接入、存储、云计算等技术,一览通信网络全貌,携手业界牛人打造最先进的ICT解决方案;你将会负责各个产品和解决方案的准入测试、比拼测试、选型测试,负责重大跨领域项目集成交付、问题故障界定、技术能力中心(包括竞争分析、场景分析、性能&QoS)的建设等工作;在这里,你还能凭借你的专业技术直接与全球顶级的通信运营商客户沟通对话,行走全球。
岗位要求
1、通信、计算机、软件工程、电子等相关专业本科及以上学历;
2、对无线通信、数通、传输、云计算等某一领域的知识有一定了解,熟悉通信网络基础知识;
3、具有良好的沟通能力和项目管理能力,能基于客户需求开展方案验证及交付。#华为#
全部评论
请问能分享一下面经吗😂
点赞 回复 分享
发布于 2019-09-04 09:56
听师姐说有需要写代码的和不写代码的的两个方向
点赞 回复 分享
发布于 2017-10-28 23:13
怎么看是分到了哪个部门啊?
点赞 回复 分享
发布于 2017-10-28 17:57
校招的?
点赞 回复 分享
发布于 2017-10-28 17:45

相关推荐

翻遍各种大模型的实现,虽然结构上可能保留了 dropout 的实现,但是采样概率都设置为 0 了。唯一一个比较新的,还用 Dropout 的模型是 Meta 训练的 Galactica 模型。那为什么现在不用了呢?核心还是要弄清楚 Dropout 的使用场景。Dropout 之前在深度学习当中是一个特别好用的方法,可以防止过拟合,提高泛化。所以说,当模型较大,数据较少的时候,使用 Dropout 是比较合适的。现在大模型处在什么状态呢?✅预训练在预训练阶段,目前可能还是处于欠拟合的状态。之所以说可能,是基于目前公开的一些论文的出的结论。但是现在闭源的公司在采用大量数据合成的情况下,已经训练足够充分或者接近充分也说不定。以 llama 一系列论文为例,训练 llama 1 的时候,龙猫 Scaling law 里面提到 GPT3 是一个训练很不充分的模型。然后给出的数据配比的建议是,10B 的模型要采用 200B 的 token 来训练。但是 llama 1 采用了 7B 的模型,训练量 1T 的 token 发现性能依然有提升。而且预训练所有的语料一般只过一个 epoch,某些特定的领域可能过 2个 epoch,可以认为样本的重复率很低。所以,在数据足够多,多样性足够而且没有太多重复的情况下,大模型在预训练阶段仍然没有过拟合的风险。也就完全不需要采用 dropout。✅Dropout 就完全不需要了么?如果上面的条件不能满足,Dropout 还是有用武之地的。比如前面提到的 Galactica 模型。这个模型和其他大模型不太一样的地方是训练了 4.25 个 epoch,因为他们认为高质量的数据更重要一些,但是又没有那么多,所以就 repeat 数据了。在论文《To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis》 中,详细列举了数据 Repeat 对训练 LLM 的影响,并且证明了 Dropout 可以缓解数据重复带来的性能损失。在文章《Can LLMs learn from a single example?》中,也提到了在 SFT 的时候,少量的重复数据就会降低模型的性能。这也符合常理,SFT 的数据分布和预训练的通常是不太一样的,重复的数据会让模型拟合新的分布,从而忘掉旧的分布。文中同样也提到 Dropout 可以缓解数据重复带来的影响。所以 Dropout 在数据量较少,多样性不高,需要 repeat 的场景下,依然是一个减少过拟合的很方便的手段。比如现在已经有一些在 LoRA 微调的时候采用 Dropout 的研究了。      
点赞 评论 收藏
分享
评论
1
2
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务