26.4.23 字节飞书测开一面
一、基本情况 / 求职意向
1.你先简单做一下自我介绍。
2.你现在这段实习,最早什么时候可以到岗?预计能实习多久?
3.你之前在北京实习,现在这个岗位在上海,你对 base 地点是怎么规划的?
4.你之前实习是研发岗位,现在投递的是质量工程 / 测试开发岗位,这个方向转变你是怎么考虑的?
5.你对质量工程、测试开发岗位的理解是什么?
6.你长期职业规划是怎样的?未来更偏研发、质量效能,还是 AI 工程方向?
7.你怎么看未来研发岗、测试开发岗、客户端岗、后端岗和 AI 的关系?
二、字节实习项目:端智能特征平台
8.你在字节实习期间主要做了什么事情?
9.你们端智能团队的端上特征平台主要解决什么问题?
10.端上原始事件是如何被处理成复杂特征并供业务方使用的?
11.你在这个项目里主要负责哪些部分?
12.你做的 C++ 性能优化、缓存优化、SQL 优化分别是什么?
13.你在实习中做过哪些自动化测试相关工作?
三、自动化测试 / MCP / Agent 生成用例
14.你做的自动化测试主要包含哪些内容?
15.你们的自动化测试是完全自动化,还是需要人工触发?
16.这个自动化测试主要是针对客户端接口,还是服务端接口?
17.这些测试用例是在端上跑的吗?运行环境是什么?
18.你做的 MCP 在自动化测试流程中起什么作用?
19.这个 Agent 生成测试用例时,依赖哪些信息?
20.MCP 更像知识库,还是工具调用?
21.用户需要输入什么,Agent 才能生成测试用例?
22.为什么你们选择基于新增接口增量生成测试用例,而不是全量生成?
23.Agent 如何根据新增接口生成对应的测试用例?
24.如果新增接口存在上下游调用链路或依赖关系,Agent 怎么识别和处理?
25.如果一个接口必须依赖前置接口返回值才能调用,你会如何设计 Agent / Skill 支持这种测试用例生成?
26.接口之间的依赖关系应该放在哪一层?是在工具返回结果、JSON 结构、接口文档,还是系统提示词里?
27.如果 A 接口依赖已有的 B、C 接口,这种依赖信息应该在研发测试流程的哪个阶段补充?
28.你怎么让 Agent 显式知道“某个参数来自哪个前置接口的哪个字段”?
29.如果只依赖模型自己理解调用链,会有什么问题?如何降低对模型能力的依赖?
四、自动化测试通知 / 飞书机器人 / 端侧测试环境
30.你开发的自动化测试提醒飞书机器人具体做了什么?
31.飞书机器人是如何检测版本更新、触发测试并通知结果的?
32.这个流程为什么在接入抖音流水线时会遇到困难?
33.你们这里说的“端”具体是安卓、iOS、鸿蒙这些客户端吗?
34.自动化测试用例是集成在宿主 App 里运行的吗?
35.端上自动化测试是通过 API 调用完成,还是会模拟用户点击、按钮操作等真实事件?
36.压力测试和接口测试在你们自动化测试体系里分别是什么?
37.你当时主要补的是接口测试用例,还是压力测试用例?
五、AI 参与开发 / 自动化闭环
38.在你整个开发和自动化用例生成过程中,AI 参与度大概有多高?
39.AI 主要参与了哪些部分?比如方案设计、代码生成、测试用例生成、调试排查等。
40.代码开发中 AI 生成占比大概多少?人工主要负责什么?
41.测试用例生成后,如何判断它是否正确?
42.如果 AI 生成的测试用例跑不通,你如何判断是用例问题,还是被测接口本身有问题?
43.如果要实现“全程无人参与”的 AI 自动化测试闭环,还需要哪些能力?
44.现在人工在自动化测试流程中主要参与哪些环节?
45.如何让 AI 自动识别新增接口并判断是否需要补测试用例?
46.如何让 AI 在本地或模拟环境中自动运行生成的测试用例?
47.如何让 AI 消费测试结果,而不是人工消费测试结果?
48.测试结果如果要交给 AI 分析,需要具备哪些前提条件?
49.测试结果应该如何结构化,才能让 AI 定位失败原因?
50.AI 能否根据失败日志定位到对应测试用例、接口、代码位置和调用链路?
51.如果进一步让 AI 自动修复问题,你觉得风险和边界在哪里?
52.从开发、测试、修复到上线都由 AI 系统参与,这个方向你怎么看?
六、模型选择 / 模型能力
53.你实习期间主要使用过哪些模型?
54.当时用过 Google Gemini、豆包、Kimi 等模型?效果怎么样?
55.在自动化测试用例生成场景中,模型能力强弱会影响哪些环节?
56.如果模型能力不足,应该通过工具、结构化信息、提示词还是流程约束来补足?
七、AI 投资分析系统 / Multi-Agent 项目
57.你的 AI 投资分析系统是自己做的项目吗?
58.这个系统主要是去公网检索新闻信息并做分析吗?
59.这个系统整体架构是什么?
60.主控 Agent、数据 Agent、新闻 Agent、知识库 Agent、总分析 Agent 分别负责什么?
61.新闻 Agent 是否可以理解为类似“联网搜索 / 爬虫”工具型 Agent?
62.这个项目现在效果怎么样?
63.你是否做了系统化评测,比如人工测试集、自动评测集、准确率统计?
64.从用户角度看,它给出的投资建议准确率大概有值吗?
65.你做这个系统的目的,是练手还是自己真实有投资分析需求?
66.你有没有按它的分析结果进行真实买入卖出?
67.如果后续要提升它的推荐或判断准确度,你会从哪些方面优化?
68.是否需要构建历史数据评测集或回测体系来验证它的有效性?
69.是否需要引入更专业的量化模型、金融模型或更强的大模型?
70.如何让系统既给出有参考价值的建议,又避免过度绝对化、误导用户?
八、项目实现 / 技术栈
71.你的 AI 投资分析系统是怎么开发的?
73.Agent 编排是基于 LangChain 吗?
74.News Agent 具体是怎么调用联网搜索并返回结果的?
75.你主要熟悉 C++,为什么这个项目用了 Python?
76.你怎么看不同开发语言之间的壁垒?
九、算法题:用给定数字组成小于目标值的最大数
77.给定一个目标数字,比如 249,以及可用数字集合,比如 1、2、3,如何组成一个小于目标值的最大数?
78.你讲一下这道题的思路。
1.你先简单做一下自我介绍。
2.你现在这段实习,最早什么时候可以到岗?预计能实习多久?
3.你之前在北京实习,现在这个岗位在上海,你对 base 地点是怎么规划的?
4.你之前实习是研发岗位,现在投递的是质量工程 / 测试开发岗位,这个方向转变你是怎么考虑的?
5.你对质量工程、测试开发岗位的理解是什么?
6.你长期职业规划是怎样的?未来更偏研发、质量效能,还是 AI 工程方向?
7.你怎么看未来研发岗、测试开发岗、客户端岗、后端岗和 AI 的关系?
二、字节实习项目:端智能特征平台
8.你在字节实习期间主要做了什么事情?
9.你们端智能团队的端上特征平台主要解决什么问题?
10.端上原始事件是如何被处理成复杂特征并供业务方使用的?
11.你在这个项目里主要负责哪些部分?
12.你做的 C++ 性能优化、缓存优化、SQL 优化分别是什么?
13.你在实习中做过哪些自动化测试相关工作?
三、自动化测试 / MCP / Agent 生成用例
14.你做的自动化测试主要包含哪些内容?
15.你们的自动化测试是完全自动化,还是需要人工触发?
16.这个自动化测试主要是针对客户端接口,还是服务端接口?
17.这些测试用例是在端上跑的吗?运行环境是什么?
18.你做的 MCP 在自动化测试流程中起什么作用?
19.这个 Agent 生成测试用例时,依赖哪些信息?
20.MCP 更像知识库,还是工具调用?
21.用户需要输入什么,Agent 才能生成测试用例?
22.为什么你们选择基于新增接口增量生成测试用例,而不是全量生成?
23.Agent 如何根据新增接口生成对应的测试用例?
24.如果新增接口存在上下游调用链路或依赖关系,Agent 怎么识别和处理?
25.如果一个接口必须依赖前置接口返回值才能调用,你会如何设计 Agent / Skill 支持这种测试用例生成?
26.接口之间的依赖关系应该放在哪一层?是在工具返回结果、JSON 结构、接口文档,还是系统提示词里?
27.如果 A 接口依赖已有的 B、C 接口,这种依赖信息应该在研发测试流程的哪个阶段补充?
28.你怎么让 Agent 显式知道“某个参数来自哪个前置接口的哪个字段”?
29.如果只依赖模型自己理解调用链,会有什么问题?如何降低对模型能力的依赖?
四、自动化测试通知 / 飞书机器人 / 端侧测试环境
30.你开发的自动化测试提醒飞书机器人具体做了什么?
31.飞书机器人是如何检测版本更新、触发测试并通知结果的?
32.这个流程为什么在接入抖音流水线时会遇到困难?
33.你们这里说的“端”具体是安卓、iOS、鸿蒙这些客户端吗?
34.自动化测试用例是集成在宿主 App 里运行的吗?
35.端上自动化测试是通过 API 调用完成,还是会模拟用户点击、按钮操作等真实事件?
36.压力测试和接口测试在你们自动化测试体系里分别是什么?
37.你当时主要补的是接口测试用例,还是压力测试用例?
五、AI 参与开发 / 自动化闭环
38.在你整个开发和自动化用例生成过程中,AI 参与度大概有多高?
39.AI 主要参与了哪些部分?比如方案设计、代码生成、测试用例生成、调试排查等。
40.代码开发中 AI 生成占比大概多少?人工主要负责什么?
41.测试用例生成后,如何判断它是否正确?
42.如果 AI 生成的测试用例跑不通,你如何判断是用例问题,还是被测接口本身有问题?
43.如果要实现“全程无人参与”的 AI 自动化测试闭环,还需要哪些能力?
44.现在人工在自动化测试流程中主要参与哪些环节?
45.如何让 AI 自动识别新增接口并判断是否需要补测试用例?
46.如何让 AI 在本地或模拟环境中自动运行生成的测试用例?
47.如何让 AI 消费测试结果,而不是人工消费测试结果?
48.测试结果如果要交给 AI 分析,需要具备哪些前提条件?
49.测试结果应该如何结构化,才能让 AI 定位失败原因?
50.AI 能否根据失败日志定位到对应测试用例、接口、代码位置和调用链路?
51.如果进一步让 AI 自动修复问题,你觉得风险和边界在哪里?
52.从开发、测试、修复到上线都由 AI 系统参与,这个方向你怎么看?
六、模型选择 / 模型能力
53.你实习期间主要使用过哪些模型?
54.当时用过 Google Gemini、豆包、Kimi 等模型?效果怎么样?
55.在自动化测试用例生成场景中,模型能力强弱会影响哪些环节?
56.如果模型能力不足,应该通过工具、结构化信息、提示词还是流程约束来补足?
七、AI 投资分析系统 / Multi-Agent 项目
57.你的 AI 投资分析系统是自己做的项目吗?
58.这个系统主要是去公网检索新闻信息并做分析吗?
59.这个系统整体架构是什么?
60.主控 Agent、数据 Agent、新闻 Agent、知识库 Agent、总分析 Agent 分别负责什么?
61.新闻 Agent 是否可以理解为类似“联网搜索 / 爬虫”工具型 Agent?
62.这个项目现在效果怎么样?
63.你是否做了系统化评测,比如人工测试集、自动评测集、准确率统计?
64.从用户角度看,它给出的投资建议准确率大概有值吗?
65.你做这个系统的目的,是练手还是自己真实有投资分析需求?
66.你有没有按它的分析结果进行真实买入卖出?
67.如果后续要提升它的推荐或判断准确度,你会从哪些方面优化?
68.是否需要构建历史数据评测集或回测体系来验证它的有效性?
69.是否需要引入更专业的量化模型、金融模型或更强的大模型?
70.如何让系统既给出有参考价值的建议,又避免过度绝对化、误导用户?
八、项目实现 / 技术栈
71.你的 AI 投资分析系统是怎么开发的?
73.Agent 编排是基于 LangChain 吗?
74.News Agent 具体是怎么调用联网搜索并返回结果的?
75.你主要熟悉 C++,为什么这个项目用了 Python?
76.你怎么看不同开发语言之间的壁垒?
九、算法题:用给定数字组成小于目标值的最大数
77.给定一个目标数字,比如 249,以及可用数字集合,比如 1、2、3,如何组成一个小于目标值的最大数?
78.你讲一下这道题的思路。
全部评论
问了这么多吗
看着要面两个小时
相关推荐
查看3道真题和解析 点赞 评论 收藏
分享