快手 大模型开发 一面

1、自我介绍

2、说一下你日常中和实习中对于大模型的一些应用

3、大模型应用到审核体系里面去的话,你有什么比较好的想法吗

如果把大模型用到审核体系里,我会更倾向于把它设计成一个审核增强模块,而不是直接完全替代原有流程。因为审核场景最重要的是稳定性、准确率和可控性,如果一开始就把所有判断都交给大模型,风险会比较高。

比较合理的方式是把审核拆成几层。先用规则和轻量模型做高确定性的初筛,把明显违规和明显正常的内容先分出去;对于边界模糊、语义复杂、上下文依赖强的内容,再交给大模型做进一步判断。大模型在这里可以承担语义理解、风险解释、相似案例归纳、标签推荐和辅助判定这些工作。这样既能利用它的泛化能力,又不会把整个系统暴露在不可控风险里。

另外,大模型在审核里不只是做“过或者不过”的二分类,它更适合输出更细的信息,比如违规类型、触发原因、上下文风险点、是否建议人工复核。这种结构化结果比单纯一个标签更有业务价值,也更方便接入后续流程。

4、审核中的 case 是非常多变的,这种情况你怎么考虑

审核场景最大的难点就是 case 变化快,而且很多内容不是固定模板,往往会出现隐晦表达、谐音、缩写、拼接、图片文案混合、上下文反转这些问题。所以面对多变 case,不能只依赖单一方案,必须做分层处理。

我的思路一般是规则、传统模型和大模型结合。规则负责兜底高确定性场景,传统模型处理高频标准化任务,大模型处理复杂语义和长尾问题。这样做的原因是,规则可控但泛化差,大模型泛化强但稳定性没那么绝对,把三者结合起来才能兼顾效果和风险。

同时,审核系统一定要有持续迭代能力。因为 case 不会一次性收敛,今天没有的问题,明天可能就会大量出现。所以线上必须保留人工复核、错误回流、样本沉淀和 Prompt 或策略更新机制。真正好用的审核体系不是一开始就完美,而是能根据新 case 快速学习和修正。

5、怎么写提示词可以让大模型更容易懂我们的想法

写提示词的核心不是把话写得多复杂,而是把任务说清楚。模型最怕的是目标模糊、边界不清、输出格式随意。一个好的提示词,至少要让模型知道现在要做什么、根据什么标准做、输出成什么样。

如果是审核场景,我一般会把提示词分成几个部分来写。先定义角色和任务,比如告诉模型它现在是内容审核助手,要判断文本是否存在某类风险。接着明确判断标准,把哪些情况算违规、哪些情况不算违规写清楚。然后给输出格式,比如要求输出是否违规、违规类型、判断依据和置信度。最后再补几个典型例子,让模型对边界场景有更直接的理解。

提示词里还有一个很重要的点,就是尽量避免模糊表达。像“帮我看一下有没有问题”这种话,对模型来说范围太大,结果就容易漂。更好的方式是把任务收窄,让模型只针对某一类风险做判断,并且要求它只基于给定文本和规则输出,不要自由发挥。

6、RAG 的基本流程是什么

RAG 的核心思路是先检索,再生成。也就是说,用户提出问题之后,系统先去外部知识库里找相关内容,再把检索

剩余60%内容,订阅专栏后可继续查看/也可单篇购买

AI-Agent面试实战专栏 文章被收录于专栏

本专栏聚焦 AI-Agent 面试高频考点,内容来自真实面试与项目实践。系统覆盖大模型基础、Prompt工程、RAG、Agent架构、工具调用、多Agent协作、记忆机制、评测、安全与部署优化等核心模块。以“原理+场景+实战”为主线,提供高频题解析、标准答题思路与工程落地方法,帮助你高效查漏补缺.

全部评论

相关推荐

评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务