陌陌大模型面经

一面:大概45分钟。
自我介绍
问很多项目. 对着项目一个个问的。(先介绍项目,然后问问题)
对于用户问题答案和 知识库不相关的话怎么办?
多路召回和重排咋做的?
如何提升检索效果呢?
大模型存在哪些问题,如何解决?
( 我说了 幻觉问题 + 大模型遗忘知识问题 )
算法题:原地删除重复的数字,统计最后不重复数的个数
二面(没做算法题):
还是围绕项目(介绍了几个项目)
讲一下embedding的原理。
如何确定基座大模型。
Ptuning和lora的原理说一下。
微调能否取代RAG?
这个项目中主要的贡献是什么?
尝试过训练Reward模型?
DPO和PPO原理了解嘛?
总体感觉需要把项目吃的非常透彻,这样才能应对自如,算法题还算简单,面试官人都很好,会耐心听你讲完你说的,对于没答很好的,还会给提示引导,说自己的看法。
全部评论
Ptuning和lora的原理说一下咋回答的
点赞 回复 分享
发布于 02-01 16:13 湖南

相关推荐

这是一个在秋招群里被反复问到的问题。刷题这件事,各人有各人的看法吧。如果你代码能力强,或者面试的公司不需要考察太多的代码题,可以少刷点。如果面试的公司需要细致的考察代码能力,或者你对自己的代码能力不自信,那还得多刷点。就我自己的经历来看,在准备秋招的过程中,大概刷了200–300道左右,主要集中在leetcode上。Hot 100、面试经典150是核心,另外也会挑一些面经里高频出现的题目重点看。数量听起来不算少,但真正有价值的,并不是“刷到第几题”,而是有没有形成稳定的解题手感。刷题的前一百题,更多是在补基础:数组、链表、栈、队列、二叉树、DFS/BFS。这一阶段进步很快,但也最容易焦虑。等过了这个阶段,再往后刷,其实是在反复强化模式识别能力——看到题目,大概知道考什么,用什么思路切入。很多人纠结“要不要刷到五百题、一千题”,但现实是,大厂面试真正反复出现的题型是有限的。你刷的不是题量,而是覆盖面和熟练度。能不能在十几分钟内把思路讲清楚,比是否见过这道题更重要。另外,一些思维题、脑筋急转弯式的问题,也值得花时间看看。这类题不一定难,但很考察临场反应和表达能力,往往是拉开差距的地方。所以,与其问至少要刷多少题,不如问自己:常见题型是不是已经形成肌肉记忆?遇到陌生题目,能不能冷静拆解?如果这些问题的答案是肯定的,那么 200–300 题,其实已经足够支撑一场像样的秋招了。
程序员找工作至少要刷多少...
点赞 评论 收藏
分享
dify 1.13.0——Human-in-the-Loop与工作流执行架构全面升级,释放AI与人的协作潜力一、核心特性:Human-in-the-Loop (HITL)Dify 1.13.0 最大的创新在于引入了 Human Input 节点,这是一个革命性更新,让人类输入成为工作流原生组成部分。此前的工作流往往只能在“自动化”或“手动执行”两种模式之间切换,对于需要人工判断的高风险场景,这种二元结构显得捉襟见肘。而 HITL 的引入,弥合了这种“信任鸿沟”,让自动化流程具备人工纠偏能力。1. 背景说明以往工作流要么完全由 AI 自动执行,要么依赖人工操作,这导致在涉及关键业务判断的场景中,难以平衡 AI 的效率与人工的可靠性。现在,Dify 支持将人工审核步骤直接嵌入工作流执行图中,实现真正的智能协作。2. 核心功能(1)原生工作流暂停机制在流程关键节点插入“Human Input”节点,工作流即会暂停,等待人工输入。这对于涉及敏感决策或需人工校验的数据场景尤为必要。(2)人工审核与编辑暂停后系统会生成可视化界面,人工可审阅 AI 输出内容,修改关键变量(如草稿、数据结果等),再继续执行流程,从而保证精准度。(3)操作路由控制可配置自定义按钮,如“批准”、“拒绝”、“升级处理”等,用于决定后续工作流路径。不同操作对应不同的逻辑分支,实现高度灵活的决策流。(4)多渠道输入方式人工输入表单可通过 Web 应用或邮件推送形式完成。在云环境下,邮件方式可能受订阅计划或功能设置影响。二、架构更新:支持暂停和恢复的工作流机制为支持 HITL 所需的状态化暂停与恢复机制,Dify 对执行引擎进行了全面重构。1. 执行架构变化• Workflow-Based Streaming Executions 和 Advanced Chat Executions 现均由 Celery workers 执行。• 非流式的工作流运行仍在 API 进程中处理。• 所有暂停/恢复路径(包括 HITL)均通过 Celery 恢复执行,事件流式返回经由 Redis Pub/Sub 实现。2. 大规模部署及自托管建议Dify 引入了新的 Celery 队列:workflow_based_app_execution。标准部署模式可直接使用,但对于高并发、高吞吐环境,官方建议进行如下优化:• Scale Workers(扩展 Worker 数量):根据工作负载增加对该队列的 Worker。• Dedicated Redis(专用 Redis 实例):大规模部署推荐配置 PUBSUB_REDIS_URL 指向专用 Redis;使用 Redis Cluster 模式结合分片 PubSub,可实现水平扩展与稳定高性能。
点赞 评论 收藏
分享
评论
1
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务