好奇滴滴到底招什么人

双985,acm区域赛银,提前批简历挂…………
招聘要求里还明确提了acm算加分项
全部评论
我俩省赛金 有实习 方向很匹配 百度开发一面秒挂 赶紧现在形势是一年比一年好 哎 只能庆幸赶上了好时代
89 回复 分享
发布于 2023-08-06 17:00 浙江
overqualified
42 回复 分享
发布于 2023-08-06 22:32 浙江
现在都是假招人
36 回复 分享
发布于 2023-08-06 20:31 湖南
可能不需要这么牛逼的
28 回复 分享
发布于 2023-08-06 18:47 北京
这不是要招什么人的问题,而是招不招人的问题,行情好的时候你的这些履历一般来说都可以过简历,行情差的时候就是纯玄学了,继续投了只能
19 回复 分享
发布于 2023-08-07 07:12 加拿大
滴滴不要你,我们要
7 回复 分享
发布于 2023-08-06 22:57 北京
百度很多部门本来就不招聘人,正常的
4 回复 分享
发布于 2023-08-07 09:03 北京
好比你入职了,简历还公开在boss上,bat的人天天找你聊天,而你不鸟他们
2 回复 分享
发布于 2023-08-14 23:46 广东
缺不仅会算法还会代码的人
2 回复 分享
发布于 2023-08-11 00:09 广东
{"pureText":"","imgs":[{"height":"1280.0","src":"https://uploadfiles.nowcoder.com/images/20230807/709149613_1691365984655/FA09D5CE662FADED2A8E8C71BE9346CA","alt":"7pEZN2QgWyg7w9xgIIPWnk1BzsxP2UXJ.jpg","width":"960.0"}]}
2 回复 分享
发布于 2023-08-07 07:53 浙江
投的算法吗?应该要文章吧
1 回复 分享
发布于 2023-08-06 20:15 北京
互联网要大厂实习
1 回复 分享
发布于 2023-08-06 17:55 广东
{"pureText":"","imgs":[{"alt":"nowcoder_169****956252.jpeg","height":2316,"localSrc":"","src":"https://uploadfiles.nowcoder.com/message_images/20230904/53666460_1693807956100/nowcoder_1693807956252.jpeg","width":1070}]}
点赞 回复 分享
发布于 2023-09-04 14:12 浙江
大佬也可以看看安克?
点赞 回复 分享
发布于 2023-09-04 14:10 广东
可以考虑一下招联金融哦,招行和联通合办的呢
点赞 回复 分享
发布于 2023-09-03 18:42 广东
同学,要不试试携程吧,秋招刚开,NTAW4HN帮忙查进度。
点赞 回复 分享
发布于 2023-09-02 10:32 上海
简历发给我试试
点赞 回复 分享
发布于 2023-08-26 13:38 北京
佬,厉害呀,我司欢迎acm
点赞 回复 分享
发布于 2023-08-26 09:42 广东
双非本,9硕,无实习,给了面试机会,然后秒挂
点赞 回复 分享
发布于 2023-08-18 14:16 四川
学弟要不考虑下字节吧
点赞 回复 分享
发布于 2023-08-12 08:24 北京

相关推荐

在改简历的大卫很认真:1. 训练时间估算 时间 ∝ 总FLOPs / (算力FP8/FP16 × 利用率) 总FLOPs ≈ 6 × 参数 × Token数 再除以单卡算力、并行数、利用率,就是时长。 ​ 2. Prefill / Decode 优化 ​ - Prefill:长序列并行、FlashAttention、分块、算子融合、向量化 ​ - Decode:KV cache、连续Batch、PagedAttention、Speculative Decoding ​ 3. Two-batch overlap ​ - 同时跑两个微批次,计算/通信重叠 ​ - 负优化:计算太快、通信太小、显存不够、调度 overhead 盖过收益 ​ 4. Megatron-LM 通信优化 TP+PP+DP三维并行; 重叠通信计算; 分桶AllReduce; 激活重计算; 减少跨节点通信量。 ​ 5. PD分离(PP+DP)为什么要KV transfer 为了流水线+数据并行一起用,提高吞吐; 虽然有KV拷贝成本,但整体能堆更大Batch、更高利用率。 ​ 6. MuON / AdamW 不能混用 优化器状态、动量、更新逻辑完全不兼容; 预训练用一个,微调换另一个,状态不匹配,直接训崩/不收敛。 ​ 7. 跨SM PD / AF 分离 核心:拆任务、提高 occupancy、隐藏延迟; PD:并行度拆分更干净; AF:聚焦注意力/前馈访存与计算重叠; 看模型结构、Kernel瓶颈选。 ​ 8. CUDA Global / Shared 注意 ​ - Global:对齐、连续访问、合并访存、少随机读、用L2缓存 ​ - Shared:防bank conflict、分块复用、同步_sync、容量控制 ​ 9. DeepSeek-V3 优化点 高效架构+长序列支持; 优化Attention/FFN计算; 更好的并行策略; 推理侧低延迟高吞吐。 ​ 10. DeepSeek-DSA/NSA/MoBA ​ - DSA:领域稀疏注意力 ​ - NSA:神经稀疏注意力 ​ - MoBA:混合专家注意力 核心都是稀疏化、省计算、扩容量。 ​ 11. NCCL 原语 & AllReduce 次数 原语:Send/Recv、Broadcast、Reduce、AllGather、ReduceScatter、AllReduce Ring AllReduce:2次(ReduceScatter + AllGather)。 ​ 12. 小数据量 NVSHMEM vs Ring AllReduce 少了Ring多跳延迟; 直接GPU-GPU读+本地Reduce; 小数据下延迟更低、更简单。 ​ 13. 超长序列训练并行 TP+PP+CP(上下文并行)+ ZeRO; 分块Attention、分块FFN; 激活重算+KV复用; 控制通信量。 ​ 14. Ampere → Hopper 算子升级 - 用TF32、FP8、新指令 ​ - 适配TMA、异步拷贝 ​ - 优化Warp调度、 occupancy ​ - 重写Attention/MatMul,用Hopper专属优化
查看14道真题和解析
点赞 评论 收藏
分享
评论
43
15
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务