Momenta AI Agent开发 一面

1、自我介绍

2、项目介绍

3、离线数据处理咋做的

离线数据处理我一般会按“采集、清洗、标准化、切分、标注、校验、入库”这条链路来做。先把多来源数据接进来,比如文档、表格、对话日志、接口结果、历史工单,然后做编码统一、去重、去噪、脏字段修复和无效样本过滤。对于文本类数据,还要做特殊符号清理、HTML 去标签、分段切分、敏感信息脱敏和元信息补全。

如果是训练数据,还会进一步做 schema 对齐,比如统一成 instruction / input / output,或者统一成多轮消息格式 messages=[{role, content}]。如果是 RAG 知识数据,就会做 chunk 切分、标题挂载、来源保留和 embedding 入库。如果是 Agent 轨迹数据,还要保留 task_id、step_id、tool_name、tool_input、tool_output、status、error_type 这些字段,方便后面做回放和失败分析。

离线处理的重点不是把数据存进去,而是让后续训练、检索、评测、回溯都能直接复用,所以字段设计、版本管理和质量校验会非常重要。

4、训练数据接入规范

训练数据接入规范的核心是统一格式、保证质量、可追溯、可扩展。一般至少会约束这几层。

第一层是样本结构统一。如果是 SFT 数据,通常会统一成指令格式或者消息格式,比如:

{
  "id": "sample_001",
  "messages": [
    {"role": "system", "content": "你是一个智能助手"},
    {"role": "user", "content": "帮我总结这段内容"},
    {"role": "assistant", "content": "这段内容主要讲了..."}
  ],
  "source": "manual_annotation",
  "domain": "qa",
  "version": "v1"
}

第二层是字段约束。像 id 必须唯一,messages 不能为空,role 只能在 system、user、assistant 里选,文本长度不能超过上限,敏感信息必须脱敏。第三层是质量校验,比如空回复、乱码、重复样本、标签错位、上下文断裂都要过滤。第四层是来源和版本管理,必须知道这条数据从哪来、谁标的、属于哪个版本、什么时候接入,后面效果波动才能追得回来。

如果是训练 Agent 的轨迹数据,还会要求保留中间步骤,比如工具调用前的思考、工具参数、返回结果和最终答案,这样后面不管做监督学习还是错误分析都更方便。

5、阶段模型效果验证咋做

阶段效果验证一般不会只看一个最终指标,而是分层去看。最基本的是离线验证,先划分训练集、验证集、测试集,看基础指标,比如准确率、召回率、F1、BLEU、ROUGE,或者 RAG 场景下的 Recall@K、MRR、NDCG。对于 Agent 系统,还会多看一步任务完成率、工具调用成功率、参数填充正确率、平均执行步数和异常中断率。

如果模型是分阶段迭代的,我通常会做三层验证。第一层是组件级验证,比如检索器单独看召回质量,重排器单独看排序效果,分类器单独看准确率。第二层是链路级验证,也就是完整输入后看最终结果是不是正确。第三层是对比验证,把新版本和旧版本放到同一批评测集上做 A/B 对比,尤其关注回归问题,也就是原来能做对的有没有被新版本做坏。

再往后会上小流量灰度,看线上延迟、错误率、用户采纳率和失败分布。真正的效果验证不是“模型分高不高”,而是“新版本是不是比旧版本更适合当前业务”。

6、失败样本回流有做吗

有做,而且这部分很重要。线上系统如果没有失败样本回流,优化会非常慢,因为你根本不知道系统到底错在哪。一般回流链路我会拆成“采集、归因、清洗、标注、重训/重评测”这几步。

先在线上把关键日志打全,包括用户输入、检索结果、Prompt、模型输出、工具调用参数、工具返回、最终答案、用户反馈和错误码。然后根据失败类型做归因,常见的有召回失败、证据引用错误、工具参数错误、输出格式错误、上下文截断、超时中断和幻觉。归因之后,不是所有失败样本都直接进训练集,还要先去重、筛噪、脱敏,再做人工标注或者半自动打标签。

最后这些失败样本一般有两个用途。一个用途是进专项评测集,变成回归测试样本;另一个用途是进训练或微调数据,用来做定向增强。真正有效的回流机制,一定是“问题发现了以后,下一个版本能明确验证有没有修好”。

7、断点重训咋做

断点重训本质上是为了避免训练过程中因为机器故障、中断或者策略调整导致全部重来。做法上一般依赖 checkpoint 机制,也就是定期保存训练状态,不只是保存模型参数,还要保存优化器状态、学习率调度器状态、当前 epoch、global step、随机数种子、混合精度 scaler 等信息。

如果只保存模型权重,其实不算完整断点重训,因为恢复后优化轨迹可能已经变了。标准做法一般是这样:

checkpoint = {
    "model_state_dict": model.state_dict(),
    "optimizer_state_dict": optimizer.state_dict(),
    "scheduler_state_dict": scheduler.state_dict(),
    "epoch": epoch,
    "global_step": global_step
}
torch.save(checkpoint, "checkpoint.pt")

恢复的时候:

checkpoint = torch.load("checkpoint.pt")
model.load_state_dict(checkpoi

剩余60%内容,订阅专栏后可继续查看/也可单篇购买

AI-Agent面试实战专栏 文章被收录于专栏

本专栏聚焦 AI-Agent 面试高频考点,内容来自真实面试与项目实践。系统覆盖大模型基础、Prompt工程、RAG、Agent架构、工具调用、多Agent协作、记忆机制、评测、安全与部署优化等核心模块。以“原理+场景+实战”为主线,提供高频题解析、标准答题思路与工程落地方法,帮助你高效查漏补缺.

全部评论

相关推荐

04-01 16:02
已编辑
武汉工程大学 Java
牛客98843461...:处女面??我还种马面渣男面处男面呢
点赞 评论 收藏
分享
上周组里招人,我面了六个候选人,回来跟同事吃饭的时候聊起一个让我挺感慨的现象。前三个候选人,算法题写得都不错。第一道二分查找,五分钟之内给出解法,边界条件也处理得干净。第二道动态规划,状态转移方程写对了,空间复杂度也优化了一版。我翻他们的简历,力扣刷题量都在300以上。后三个呢,就有点参差不齐了。有的边界条件没处理好,有的直接说这道题没刷过能不能换个思路讲讲。其中有一个女生,我印象特别深——她拿到题之后没有马上写,而是先问我:“面试官,我能先跟你确认一下我对题目的理解吗?”然后她把自己的思路讲了一遍,虽然最后代码写得不是最优解,但整个沟通过程非常顺畅。这个女生的代码不是最优的,但当我问她“如果这里是线上环境,你会怎么设计’的时候,她给我讲了一套完整的方案——异常怎么处理、日志怎么打、怎么平滑发布。她对这是之前在实习的时候踩过的坑。”我在想LeetCode到底在筛选什么?我自己的经历可能有点代表性。我当年校招的时候,也是刷了三百多道题才敢去面试。那时候大家都刷,你不刷就过不了笔试关。后来工作了,前三年基本没再打开过力扣。真正干活的时候,没人让你写反转链表,也没人让你手撕红黑树。更多的是:这个接口为什么慢了、那个服务为什么OOM了、线上数据对不上了得排查一下。所以后来我当面试官,慢慢调整了自己的评判标准。算法题我还会出,但目的变了。我出算法题,不是想看你能不能背出最优解。而是想看你拿到一个陌生问题的时候,是怎么思考的。你会先理清题意吗?你会主动问边界条件吗?你想不出来的时候会怎么办?你写出来的代码,变量命名乱不乱、结构清不清楚?这些才是工作中真正用得到的能力。LeetCode是一个工具,不是目的。它帮你熟悉数据结构和常见算法思路,这没问题。但如果你刷了三百道题,却说不清楚自己的项目解决了什么问题、遇到了什么困难、你是怎么解决的,那这三百道题可能真的白刷了。所以还要不要刷LeetCode?要刷,但别只刷题。刷题的时候,多问自己几个为什么:为什么用这个数据结构?为什么这个解法比那个好?如果换个条件,解法还成立吗?把刷题当成锻炼思维的方式,而不是背答案的任务。毕竟面试官想看到的,从来不是一台背题机器,而是一个能解决问题的人。
牛客51274894...:意思是光刷力扣还不够卷
AI时代还有必要刷lee...
点赞 评论 收藏
分享
评论
3
1
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务