【春招实习】求Agent算法实习简历啊😭淘天真实不卷啊,老板人超好

我们组今天春招实习的hc挺多的,比往年宽裕多啦!岗位具体描述在最下面哦~~

毕业年限2026.11-2027.10!

大哥大姐们信我啊,信我啊内推绝对不是走过场啊,我们老板盯着我的后脑勺让我招人啊!

有意向的同学可以sl我!!!着急着急!!

简历直达一面面试官,当天约面试,3天内安排面试!!

1. Agent算法工程师(室内智能设计)

● 职位描述
1. 参与构建面向家装与家居消费场景的生成式AI智能设计系统,结合大模型、多模态理解与空间推理能力,为用户生成合理、美观且可落地的全屋设计方案;
2. 围绕户型解析、家具布局生成、商品搭配生成等核心问题,设计并实现空间布局与搭配生成算法,提升设计方案的合理性与美学一致性;
3. 构建空间关系建模与约束推理能力,结合场景理解与用户需求,实现可控的空间布局生成与商品组合推荐;
4. 设计与实现面向设计与导购场景的Agent决策与执行架构,实现从用户需求理解、方案生成到交互式调整的完整智能设计流程;
5. 基于大语言模型与多模态模型开展算法研究与工程落地,探索生成式建模在空间设计、商品理解与用户意图解析中的应用;
6. 研究并实践SFT、RLHF、DPO等大模型后训练方法,持续提升模型在布局合理性、空间约束满足、搭配一致性与用户偏好对齐方面的能力;
7. 设计并开展系统性的实验与算法评估,持续优化模型效果与系统性能,并参与相关算法在真实业务场景中的落地。

● 职位要求
1. 计算机科学、人工智能、机器学习、计算机视觉、自然语言处理或相关专业硕士及以上学历;
2. 熟练掌握 Python 与 PyTorch,具备扎实的深度学习基础和良好的算法工程能力;
3. 熟悉主流生成式模型与深度学习架构,如 Transformer、Diffusion、Autoregressive Models 等;
4. 对大语言模型(LLM)、多模态大模型及生成式AI技术有深入理解,熟悉SFT、RLHF、DPO、RAG、Agent等相关技术;
5. 具备 2D/3D 布局生成、空间理解、约束优化或用户意图建模经验者优先;对具身智能、智能推荐、多 Agent 系统有深度研究者优先。
6. 在CVPR、ICCV、ECCV、NeurIPS、ICML、ICLR、AAAI、ACL、EMNLP、KDD、WWW、RecSys等会议发表过LLM、多模态、推荐或AIGC相关论文者优先;
7. 具备良好的科研能力与团队协作能力,能够独立推进算法研究、实验分析与技术落地。

2. 三维重建与生成算法工程师
• 职位描述
1、参与面向室内设计场景的前沿多模态3D生成与编辑算法研发,参与高质量家具的3D自动化建模,以及完整室内三维空间的重建与生成。
2、探索并实现基于多样化三维底层表征(如3D Gaussian、Mesh、SDF、Point Cloud等)的高效压缩方案(如VAE范式)。在压缩与特征提取过程中,追求极致的几何精度、拓扑合理性与纹理材质真实度。
3、深入研究3D生成模型的网络架构,探索高效的多模态条件(如文本、图像等)注入与融合机制,提升模型在复杂约束下的计算效率、生成稳定性和细节表现力。
4、实践3D生成模型的预训练与后训练方案,提高流匹配模型预训练的稳定性与效率,并运用SFT、强化学习等后训练对齐策略,提高模型的生成质量和可控性。
5、针对业务场景的大规模应用需求,开展模型蒸馏与推理加速等前沿研究,优化模型推理效率,并参与相关算法在真实业务场景中的应用与落地。

• 职位要求
1. 计算机科学、人工智能、计算机图形学或相关专业硕士及以上学历;
2. 熟练掌握 Python 和 PyTorch,具备良好的深度学习工程能力;
3. 熟悉主流深度学习模型结构,如 Transformer、U-Net 等,对扩散模型、VAE、流匹配原理有深入理解;
4. 具备扎实的计算机图形学和3D视觉基础,熟悉常见三维表示方法(Mesh / Point Cloud / SDF / NeRF / Gaussian Splatting 等);
5. 熟悉三维重建、离线渲染、计算几何等相关理论与算法,具备使用 Open3D、PyTorch3D、Blender 等工具经验者优先;
6. 具备良好的科研能力与问题分析能力,有 SIGGRAPH / CVPR / ICCV / ECCV / NeurIPS 等顶会论文或相关研究经验者优先

#实习##阿里实习##淘天#
全部评论
接offer
点赞 回复 分享
发布于 03-16 20:05 浙江
学弟学妹们,我们组这边简历可以直达面试官的,可以先聊一下哦
点赞 回复 分享
发布于 03-13 10:28 浙江

相关推荐

多模态模型横向对比除了 Video-LLaMA,还了解哪些主流多模态大模型?→ 常见的有 LLaVA、Flamingo、BLIP、BLIP-2、KOSMOS、PaLI 等简单介绍 ALBEF 和 BLIP 这两个模型的核心设计→ ALBEF:基于图像 - 文本对比学习,搭配动量蒸馏来优化图文对齐效果;BLIP:引入 captioner 生成高质量图文对,再结合 filter 机制筛选优质数据BLIP-2 的整体结构是什么?两阶段训练流程是怎样的?用到了哪些损失函数?→ 结构:在 ViT 和大语言模型之间插入 Q-Former 作为中间桥梁→ Stage1:冻结 ViT 和语言模型,只训练中间的 Q-Former→ Stage2:冻结语言模型,将 Q-Former 与 LM 连接,做指令微调→ 损失:ITC(图文对比损失)+ ITM(图文匹配损失)+ LM 生成损失微调方法(PEFT 全家桶)了解 PEFT 吗?再讲讲 LoRA,重点说明低秩假设的合理性→ PEFT 是参数高效微调的统称,核心是只训练少量参数而不动原模型权重;LoRA 假设模型权重更新量 ΔW 具有低秩特性,将其分解为 A×B,只训练 A、B 两个低秩矩阵,既节省显存又能保留效果除了 LoRA,还有哪些 PEFT 方法?Prefix-tuning 和 P-tuning 有什么区别?→ 其他方法:Adapter Tuning、Prefix-tuning、P-tuning、IA³ 等→ Prefix-tuning:在输入序列前加可学习的 prefix,作用于注意力的 K/V 矩阵,更适合 decoder-only 架构→ P-tuning:用小型网络(如 LSTM)生成连续的 soft prompt,解决离散 prompt 不稳定的问题,更适配 encoder-decoder 模型大模型训练范式你项目中用到的大模型结构是什么?多模态特征是如何喂给大模型的?→ 示例流程:视频帧 → TimeSformer 提取时空特征 → 特征池化 → 线性投影对齐到文本维度 → 拼接到文本 prompt 之前 → 输入 LLM大模型在做了指令微调后,为什么还需要 RLHF?→ 指令微调只是让模型学会遵循指令,但输出可能更偏向 “模板化”;RLHF 是通过人类偏好对齐,让模型输出更符合人类价值观、更自然、更有用的回答,解决 “有用性” 和 “安全性” 问题了解 RLHF 吗?描述它的完整训练流程→ 三阶段流程:① SFT 微调:用高质量指令数据对预训练模型做监督微调,让模型学会基本指令遵循② 训练 Reward Model(RM):用人类标注的偏好数据训练奖励模型,学习给不同模型输出打分③ PPO 优化:用 RM 作为奖励信号,通过 PPO 算法更新策略模型,最大化 RM 给出的奖励,实现与人类偏好对齐手撕 LeetCode 原题:合并 k 个升序链表→ 核心思路:用小根堆维护 k 个链表的当前节点,每次弹出最小值节点并入结果链表,再将该节点的下一个节点入堆,直到所有链表遍历完毕;时间复杂度 O (N log k),N 为总节点数
查看9道真题和解析
点赞 评论 收藏
分享
攒攒人品! 1.项目拷打2.vision-language 对齐是 joint embedding 的?,那做了哪种对齐?有做 hard negative mining 吗3.所有视角共享 encoder 吗?如何防止view collapse?4.semantic space是如何保证cross-modal consistency的5.用diffusion model做动作策略,是怎么建模action space的6.如果多个diffusion模型组合,用了 gating 机制还是 uncertainty-aware ensemble?那 uncertainty 是怎么量化的?有对比过 epistemic 和 aleatoric 吗?7.怎么防止action drift?有没有引入 consistency regularization或者temporal smoothness loss?8.在surgical robotics里policy failure cost 很高,是怎么做risk-aware training 的?有没有加入 CVaR loss10.模型泛化能力是靠数据多样性还是结构归纳偏置?能列出你设计中的 inductive bias 吗?对 unseen 手术任务怎么泛化11.surgical scene 变化很大,怎么办12.你说MAE 是做关键帧 reconstruction,那帧选择怎么做?具体打分逻辑是怎么样的13.有没有做 token-level saliency analysis?你怎么知道模型真的关注了 surgical tool 而不是 background?部署是在 ARM 上还是 X86?有没有模型并行?多线程和多进程各负责什么14.做多模态感知融合时,视觉、语言、触觉(如果有)延迟不同,怎么对齐的15.整个pipeline的E2E latency是多少?瓶颈在哪你说中间用了 LQR,你 gain matrix 是 constant 吗?有没有做 gain scheduling?基于什么指标调的16.控制系统稳定性你怎么保证?有没有做过 Lyapunov 函数证明17.做过 trajectory optimization 吗?是基于 collocation 还是 direct shooting18.假设你有个 policy 输出波动很大,你会考虑在 policy 层加高通滤波器还是在 loss 层加 penalty?为什么?19.diffusion policy 是连续动作空间,那你是建模 joint distribution 还是 marginal20.语言指令不是 deterministic 的,你们是直接用 language embedding 吗?有没有考虑language-conditioned latent variable model?
查看21道真题和解析
点赞 评论 收藏
分享
评论
2
1
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务