番茄小说一面面经-后端
鼠鼠第一次投大厂面试,写面经攒人品:
1. 个人介绍(2min)
2. 挖项目(我跟后端相关的项目似乎只有抖音商城(字节跳动青训营),他一直挖我这个项目)
3. 服务是怎么被发现的?(微服务)
4. 假如你这个服务要更新,要更平滑,不让用户感到延迟,你会怎么做?
- 维护两套环境(蓝:当前生产环境;绿:新版本环境)。
- 新版本在绿环境测试通过后,切换流量到绿环境,蓝环境作为回滚备用。
- 优点:零停机,用户无感知切换。
5. 你输入一个url的处理过程
6. 然后就开始写题了,面试官直接口述,输入一个数字,输出下一个最小的比这个数大的数字(重新排列)leetcode类似的题目是:[556. 下一个更大元素 III](******************************************************)这道题手撕还是相当紧张的,给我撕出来了
7. 数据库事务是什么
8. mvcc是什么,怎么实现的?
9. 场景题,给你一个番茄小说的书,有十万订阅,如何快而准确的通知到所有订阅的人更新了(这里要求你去用具体的实现)
我这里寄了,后面复盘的时候,应该是使用feed流,这个是用ai写的答案:
- 推模式 (Fanout-On-Write/Writes):
- **操作时机:** 当关键事件(如新章节发布)发生时**立即**执行。
- **目标用户:** **核心活跃粉丝(数量相对较小)**。
- **动作:** 将事件**直接写入**这些目标粉丝的个人 **收件箱(Inbox Feed)**(一个按时间排序的数据存储)。用户访问自己的 Feed 流时,直接从这个收件箱拉取即可,延迟极低。
- 拉模式 (Fanout-On-Read):
- **操作时机:** 当用户主动请求访问 Feed 流时执行。
- **目标用户:** **非核心粉丝(长尾粉丝,数量大)** 或 触发推模式的粉丝,在访问 Feed 时可能需要拉取更长时间范围内的数据。
- **动作:** 后端服务在用户请求时,**实时聚合**用户所关注对象(收藏的书籍)的 **发件箱(Outbox Feed)** 数据(包含所有发布事件),按时间排序后返回给用户。这需要访问多个发件箱(每个收藏的书一本)并聚合。
- **「推拉结合」的关键:** **合理区分「核心粉丝」与「长尾粉丝」**,只对核心粉丝进行实时写入。
**关键组件与流程详解:**
1. **事件源 (Event Source):**
- **新章节发布:** 最核心的事件源。携带 `bookId`, `chapterId`, `publishTimestamp`。
- **粉丝关系变更:** 用户收藏 (`favor`) 或取消收藏 (`unfavor`) 一本书。携带 `userId`, `bookId`, `action`, `timestamp`。
2. **事件总线 (Event Bus):**
- 使用高吞吐、可靠的消息队列如 Kafka/Pulsar。接收上述事件并进行持久化,供下游消费者订阅。
后面是就是针对十万用户的进行**精准界定“核心活跃粉丝” (`HotFanCache`):**,查询优化,**高性能存储与分片:**
10. 反问,问了业务是什么,技术栈是什么,然后和面试官聊的蛮开心的,面试官夸了基础好,知道稳了
10min之后,hr通知2面.1面成功.#牛客AI配图神器#
1. 个人介绍(2min)
2. 挖项目(我跟后端相关的项目似乎只有抖音商城(字节跳动青训营),他一直挖我这个项目)
3. 服务是怎么被发现的?(微服务)
4. 假如你这个服务要更新,要更平滑,不让用户感到延迟,你会怎么做?
- 维护两套环境(蓝:当前生产环境;绿:新版本环境)。
- 新版本在绿环境测试通过后,切换流量到绿环境,蓝环境作为回滚备用。
- 优点:零停机,用户无感知切换。
5. 你输入一个url的处理过程
6. 然后就开始写题了,面试官直接口述,输入一个数字,输出下一个最小的比这个数大的数字(重新排列)leetcode类似的题目是:[556. 下一个更大元素 III](******************************************************)这道题手撕还是相当紧张的,给我撕出来了
7. 数据库事务是什么
8. mvcc是什么,怎么实现的?
9. 场景题,给你一个番茄小说的书,有十万订阅,如何快而准确的通知到所有订阅的人更新了(这里要求你去用具体的实现)
我这里寄了,后面复盘的时候,应该是使用feed流,这个是用ai写的答案:
- 推模式 (Fanout-On-Write/Writes):
- **操作时机:** 当关键事件(如新章节发布)发生时**立即**执行。
- **目标用户:** **核心活跃粉丝(数量相对较小)**。
- **动作:** 将事件**直接写入**这些目标粉丝的个人 **收件箱(Inbox Feed)**(一个按时间排序的数据存储)。用户访问自己的 Feed 流时,直接从这个收件箱拉取即可,延迟极低。
- 拉模式 (Fanout-On-Read):
- **操作时机:** 当用户主动请求访问 Feed 流时执行。
- **目标用户:** **非核心粉丝(长尾粉丝,数量大)** 或 触发推模式的粉丝,在访问 Feed 时可能需要拉取更长时间范围内的数据。
- **动作:** 后端服务在用户请求时,**实时聚合**用户所关注对象(收藏的书籍)的 **发件箱(Outbox Feed)** 数据(包含所有发布事件),按时间排序后返回给用户。这需要访问多个发件箱(每个收藏的书一本)并聚合。
- **「推拉结合」的关键:** **合理区分「核心粉丝」与「长尾粉丝」**,只对核心粉丝进行实时写入。
**关键组件与流程详解:**
1. **事件源 (Event Source):**
- **新章节发布:** 最核心的事件源。携带 `bookId`, `chapterId`, `publishTimestamp`。
- **粉丝关系变更:** 用户收藏 (`favor`) 或取消收藏 (`unfavor`) 一本书。携带 `userId`, `bookId`, `action`, `timestamp`。
2. **事件总线 (Event Bus):**
- 使用高吞吐、可靠的消息队列如 Kafka/Pulsar。接收上述事件并进行持久化,供下游消费者订阅。
后面是就是针对十万用户的进行**精准界定“核心活跃粉丝” (`HotFanCache`):**,查询优化,**高性能存储与分片:**
10. 反问,问了业务是什么,技术栈是什么,然后和面试官聊的蛮开心的,面试官夸了基础好,知道稳了
10min之后,hr通知2面.1面成功.#牛客AI配图神器#
全部评论
再加个linuxio多路复用
相关推荐

点赞 评论 收藏
分享
昨天 19:00
陕西师范大学 Java 在百度日常实习了快5个月了,之前还在一个独角兽实习过几个月。这边mentor和leader对我都挺好,做的东西也变得核心起来。所以暑期就也没咋准备。但现在看好多兄弟三四段实习,有点犹豫要不要再换一家。

点赞 评论 收藏
分享
06-26 21:09
长沙理工大学 C++ 点赞 评论 收藏
分享