算法打工人小旺 level
获赞
141
粉丝
158
关注
0
看过 TA
909
中山大学
2025
算法工程师
IP属地:山东
咨询辅导请联系。
私信
关注
1.自我介绍2.拷打项目:在多模态Embedding时,你如何平衡文本语义和图像视觉特征在计算相似度时的权重?3.拷打项目:如果用户反复说同一件事,你会重复存储还是进行语义合并?使用MCP接入多个测评工具时,如果两个工具对同一个问题回答格式不统一,怎么处理?4.在推理阶段,为了消除LoRA带来的额外延迟,你会进行权重Merge吗?5.如果Agent发现调用的工具报错,如何设计Prompt引导它用报错信息进行重试,而不是直接报错给用户?6.在长对话中,除了截断,你了解哪些更高效的上下文压缩方法?7.在一个多Agent系统里,由LLM做Router分发任务和由固定规则分发相比,各有什么优劣?8.在Milvus里,你如何实现BM25和向量检索分数对齐?9.如果限定只检索某个时间之后的数据,向量数据库里如何实现标量过滤?10.了解LoRA微调吗?在训练LoRA时,两个参数矩阵分别是如何初始化的?11.讲讲QLoRA的核心思想12.如果你微调的是逻辑推理任务,相比于对话任务,你认为秩应该大还是小?13.如果并发调用10个不同的Embedding接口,asyncio.gather相比多线程在资源消耗上有什么优势?14.在垂域指令微调时,如果模型原本的通用能力下降,你有哪些方法解决?16.DPO在训练时,为什么不需要像PPO那样在线采样生成回答?DPO数据格式是什么样的?17.手撕:合并K个升序链表📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
查看17道真题和解析
0 点赞 评论 收藏
分享
一、Agent Memory的结构形式1.Token-level memoryToken-level memory 将信息存储为可持久化的离散单元,这些单元是外部可访问且可解释的。“token”在这里是广义概念,不仅包括文本 token,也包括视觉 token、音频帧等任何可在模型外写入、检索、重组与修改的离散元素。按照组织架构的不同,Token-level Memory可以分为三大类:Flat Memory(1D)、Planar Memory(2D)和Hierarchical Memory(3D)。✅Fat MemoryFat Memory 将信息存储为离散单元的集合,但不显式建模它们之间的关系。✅Planar MemoryPlanar Memory 在单层结构中引入显式关系(如图、树、表),但没有跨层结构,其核心突破是:从“存储”升级为“组织”。✅Hierarchical MemoryHierarchical memory 在多层结构中组织信息,并通过层间连接形成“立体 memory 空间”。主要形式有“金字塔结构”和“多层模块结构”。二、Agent Memory的功能角色✅扮演事实记忆(Factual Memory)的时候,可以:用于存储稳定的、可复用的客观知识,例如用户信息、世界知识、业务规则等。在推理过程中,Agent 可以通过检索这些记忆来补充上下文,从而避免重复查询外部知识源(如 RAG),提高响应效率与一致性。同时,事实记忆还可以通过持续更新来保持知识的时效性,例如覆盖过期信息或修正错误事实。通俗来说,就是记录一些事实信息,比如用户偏好信息、领域内容基本常识、业务规则等等。✅扮演经验记忆(Experiential Memory)的时候,可以:记录 Agent 在历史任务中的行为轨迹、决策过程以及对应的反馈(成功或失败)。这些记忆可以被用于总结经验、抽象策略,并在后续类似任务中进行复用,从而提升决策质量。✅扮演工作记忆(Working Memory)的时候,可以:在当前任务执行过程中,临时存储中间推理结果、上下文状态以及多步任务的阶段性信息。它类似于一个“思考缓冲区”,用于支持复杂推理、多轮交互或长链路任务执行。Factual Memory 和 Experiential Memory 在系统运行之前或运行过程中被持续沉淀下来,用于在后续任务中被直接检索和复用,为模型提供稳定的知识与经验支持。而 Working Memory 则不同,它并不是预先存储好的,而是在当前任务或交互过程中实时构建,用于记录中间状态、上下文以及推理过程中的关键信息。三、Agent Memory的运作流程1、Memory Formation(记忆形成)该过程将原始经验转化为高信息密度的知识。关键点:不再简单记录所有历史只保留长期有价值的信息成功的推理模式环境约束关键事实2、Memory Evolution(记忆演化)该过程负责:将新记忆整合进已有记忆库保持系统的:一致性(coherence)泛化能力(generalization)效率(efficiency)3、Memory Retrieval(记忆检索)这一部分要解决的问题是:如何在推理过程中检索并利用这些记忆。我们将记忆检索定义为:在合适的时刻,从某个记忆库中提取相关且简洁的知识片段,以支持当前的推理任务。其核心挑战在于:如何在大规模记忆存储中高效、准确地定位所需知识。📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
0 点赞 评论 收藏
分享
1.自我介绍2.拷打项目:针对长短期记忆,讲讲你是如何设计记忆的提取、压缩与冲突更新机制的?如果检测到用户存在极端情绪,你的Agent如何在不中断对话流的前提下进行干预?3.讲一下稠密向量与稀疏向量的区别,分别适合处理什么样的搜索需求?4.在向量化之前,为什么要对长文档进行切片?如果不切片会有什么后果?5.切片时设置重叠区域的作用是什么?这个比例你通常怎么来确定?6.余弦相似度和欧氏距离在衡量文本相似性时,各自的优缺点是什么?7.向量库检索出的Top-K结果,如果K值设置得过大,对后续的生成质量有哪些负面影响?8.为什么在初筛召回之后,还要加一个Rerank模型?它能解决向量搜索的哪些局限?9.如果文档发生了局部更新,如何通过增量索引来避免全量重新向量化?10.在RAG的生成阶段,如何在Prompt中设定边界条件来防止模型在没搜到内容时产生幻觉?11.调用大模型API时,为什么要使用asyncio异步编程?它在处理高并发请求时有何优势?12.了解HyDE吗?介绍一下原理,它在处理模糊提问时有哪些优势?13.随着超长上下文模型的出现,你认为传统RAG架构的必要性是否降低了?14.你了解哪些大模型推理框架?SGLang相比vLLM的PagedAttention在推理延迟上有哪些优势?15.手撕:第k大元素20.反问📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
查看16道真题和解析
0 点赞 评论 收藏
分享
03-29 21:35
已编辑
中山大学 算法工程师
1️⃣讲一下强化学习 reward 函数设计。(1)可验证奖励( RLVR ):对有确定答案的任务(数学、代码),用 ground - truth 结果验证(正确+1,错误0/-1)。(2)奖励模型( RM - based Reward ):对主观任务(对话、写作),训练 RM 从偏好数据学习打分。(3)规则奖励:对特定安全/格式要求,用硬规则直接判断。2️⃣现有 Embedding 模型相比 CLIP 的区别?(1)训练目标不同: CLIP 用 InfoNCE 做图文对比,目标是让匹配图文对相似;专用模型用 SimCSE /三元组损失/ NLI 监督/多任务,目标是精确捕捉文本语义的细粒度差异。(2)数据质量不同:专用模型训练于高质量语义标注对,语义标注精准; CLIP 训练于网络爬取图文对,文本侧噪声大、以短标题为主,不利于文本语义建模。(3)性能对比: MTEB 基准上, BGE - Base /E5- Base 等在文本检索、语义相似度等任务上大幅领先 CLIP ;但 CLIP 在图文检索上仍有独特优势。3️⃣ GRPO 和 PPO 的区别。(1)架构差异: PPO 需要四个模型(策略模型π t _0、旧策略、奖励模型 RM 、价值模型 Critic ),显存占用大, Critic 的估计偏差还可能干扰 advantage 计算。 GRPO 只需策略模型,对每个 prompt 采样 G 个输出,用组内平均奖励作为 baseline 替代 Critic ,去掉了价值模型的全部开销。(2) Baseline 设计: PPO 的 baseline 是 Critic 预测的状态价值; GRPO 的 baseline 是当前 prompt 下同组 G 个 rollout 的均值。(3)适用场景: GRPO 对"组内多样性"要求高,特别适合有可验证奖励的推理任务; PPO 更通用但更复杂,适合需要精确价值估计的场景。4️⃣大模型训练流程。(1)预训练( Pre - training ):目标是从海量无标注文本(万亿 token 级别)学习语言统计规律和世界知识,任务是 next - token prediction 。(2)监督微调( SFT ):用高质量( instruction , response )对让模型学会遵循指令。(3)对齐训练( RLHF / DPO / GRPO ):让模型输出符合人类偏好,通过奖励模型反馈或直接偏好优化进一步提升质量和安全性。5️⃣微调大模型如何卡阈值。可验证任务(数学/代码)用"正确性"作为硬阈值(只要正确的);生成任务用 RM 综合分数阈值。6️⃣为什么 CLIP 的嵌入效果不好?①文本编码器仅支持77 tokens (基于 GPT -2架构),无法处理长文本;② nfoNCE 对比目标只要求"匹配图文对靠近",不需要区分文本之间的细粒度语义差异,嵌入空间对文本相似度分辨能力弱;③预训练数据以互联网短标题为主,语义噪声大,文本侧质量不足;④对文本扰动敏感(微小改动可能导致检索排序大变)。7️⃣[代码题]手撕了 InfoNCE 代码 InfoNCE loss 的实现﹣﹣计算相似度矩阵(点积/余弦)、温度缩放、对角线为正样本的 cross - entropy loss ,批次内负样本。📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
查看7道真题和解析
0 点赞 评论 收藏
分享

创作者周榜

更多
关注他的用户也关注了:
牛客网
牛客网在线编程
牛客网题解
牛客企业服务