小鹏汽车一面

1.  你先大概做一下自我介绍吧。
2.  你的调度中心是基于开源的,还是自己重新做的?
3.  (如果自研)你大概聊一下你的思路。
4.  (调度中心)发消息谁去消费呢?
5.  业务方消费MQ比较慢,导致调度出问题,这种情况你们是怎么考虑的?
6.  你们日常线上的巡检是怎么做的?
7.  你们没有统一的监控系统吗?
8.  你们没有配置监控规则或告警规则吗?
9.  如果你发现线上MySQL有(性能问题),一般是怎么分析?
10. 线上JVM占用1G,但拉下来的堆转储(Dump)文件只有300M,大小不一致,你有什么思路去分析?
11. 导出堆转储文件时,会触发Full GC吗?
12. 你们有没有分析过堆外内存的问题?
13. 解决调用超时导致的数据不一致问题,引入分布式事务会不会有点重?有没有其他方案?
14. 你们是直接用Seata吗?
15. 解决待办查询时间过长的问题引入了Redis,那你们之前数据是存在哪里的?MySQL吗?
16. 引入Redis后,怎么保证它和MySQL的数据一致性?
17. 你提到通过异步去更新(缓存),并发高的时候,线程会不会开(Hold)得非常多?
18. 你们重构审批流程引擎时,怎么保证重构不影响原有逻辑?怎么验证?
19. 你写了重构日志(Log)记录方法,能聊聊重构前后是怎么做的吗?
20. 你们项目用的JDK版本是什么?
21. 你能聊聊CMS和G1的区别吗?
22. G1(分Region)和CMS最主要的区别是什么?物理结构上的区别。
23. G1的MaxPauseTime(最大暂停时间)目标,这个逻辑(或算法)是怎么实现的?
24. 平常有了解过网络协议或RPC框架吗?比如Dubbo或gRPC。
25. 如果让你去解决TCP粘包的问题,你有什么方案?
26. (跟进)HTTP是怎么做的?(它也是基于TCP)
27. (跟进)除了(HTTP)这种,有没有其他更简单的方案?
全部评论

相关推荐

不愿透露姓名的神秘牛友
03-23 10:00
小鹏汽车 采购 16.5Kx(13-15) 大专
点赞 评论 收藏
分享
AI大模型算法,一环扣一环的拷打Transformer 基础详细介绍 Transformer 架构(Encoder-Decoder 结构、位置编码、FFN 等)Decoder 的因果注意力中,Q、K、V 分别来自哪里?→ Q 来自当前 Decoder 输入(已生成的 token 序列),K 和 V 也来自同一序列(需 mask 未来信息)Attention 为什么要 scaled?不做会怎样?为什么是√dₖ?→ 点积随 dₖ增大会让 softmax 进入饱和区,导致梯度消失;除以√dₖ可使方差稳定在 1(数学推导参考 Vaswani 论文)Transformer 如何加速推理?KV Cache 是什么?训练 vs 推理的并行性差异?→ 训练时所有 token 并行计算;推理时自回归,KV Cache 可缓存历史 K/V,避免重复计算,大幅提速多模态论文深挖(以 Video-LLaMA 为例)讲解 Video-LLaMA 的整体结构→ 视频编码器(如 ViT + Temporal Aggregator)→ 投影层(对齐文本空间)→ LLaMA 语言模型论文中 CoT(Chain-of-Thought)的具体设计?→ 在 prompt 中加入推理步骤示例(如 “视频中先看到人挥手,然后狗跑过来…”),引导模型分步作答微调 & 分布式训练微调用了 LoRA,介绍其原理→ 将权重更新 ΔW 分解为低秩矩阵 A×B,冻结原模型,只训练 A、B,大幅减少可训练参数LoRA 初始化怎么做?秩(rank)设为多少?为什么选这个值?→ A ~ N (0, σ²),B 初始化为 0;常用 rank=8 或 16,在效果和参数量间取得平衡(实验验证)知道 DeepSpeed 和 Megatron 吗?分别说说→ DeepSpeed(微软):主打 ZeRO 显存优化;Megatron-LM(NVIDIA):张量并行 + 流水线并行论文用 DeepSpeed,三个 Stage(ZeRO-1/2/3)分别是什么?→ Stage1:优化器状态分片;Stage2:+ 梯度分片;Stage3:+ 模型参数分片(通信换显存)二面下一篇再写吧,力竭了
查看10道真题和解析
点赞 评论 收藏
分享
评论
点赞
10
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务