【春招实习】求Agent算法实习简历啊😭淘天真实不卷啊,老板人超好

我们组今天春招实习的hc挺多的,比往年宽裕多啦!岗位具体描述在最下面哦~~

毕业年限2026.11-2027.10!

大哥大姐们信我啊,信我啊内推绝对不是走过场啊,我们老板盯着我的后脑勺让我招人啊!

有意向的同学可以sl我!!!着急着急!!

简历直达一面面试官,当天约面试,3天内安排面试!!

1. Agent算法工程师(室内智能设计)

● 职位描述
1. 参与构建面向家装与家居消费场景的生成式AI智能设计系统,结合大模型、多模态理解与空间推理能力,为用户生成合理、美观且可落地的全屋设计方案;
2. 围绕户型解析、家具布局生成、商品搭配生成等核心问题,设计并实现空间布局与搭配生成算法,提升设计方案的合理性与美学一致性;
3. 构建空间关系建模与约束推理能力,结合场景理解与用户需求,实现可控的空间布局生成与商品组合推荐;
4. 设计与实现面向设计与导购场景的Agent决策与执行架构,实现从用户需求理解、方案生成到交互式调整的完整智能设计流程;
5. 基于大语言模型与多模态模型开展算法研究与工程落地,探索生成式建模在空间设计、商品理解与用户意图解析中的应用;
6. 研究并实践SFT、RLHF、DPO等大模型后训练方法,持续提升模型在布局合理性、空间约束满足、搭配一致性与用户偏好对齐方面的能力;
7. 设计并开展系统性的实验与算法评估,持续优化模型效果与系统性能,并参与相关算法在真实业务场景中的落地。

● 职位要求
1. 计算机科学、人工智能、机器学习、计算机视觉、自然语言处理或相关专业硕士及以上学历;
2. 熟练掌握 Python 与 PyTorch,具备扎实的深度学习基础和良好的算法工程能力;
3. 熟悉主流生成式模型与深度学习架构,如 Transformer、Diffusion、Autoregressive Models 等;
4. 对大语言模型(LLM)、多模态大模型及生成式AI技术有深入理解,熟悉SFT、RLHF、DPO、RAG、Agent等相关技术;
5. 具备 2D/3D 布局生成、空间理解、约束优化或用户意图建模经验者优先;对具身智能、智能推荐、多 Agent 系统有深度研究者优先。
6. 在CVPR、ICCV、ECCV、NeurIPS、ICML、ICLR、AAAI、ACL、EMNLP、KDD、WWW、RecSys等会议发表过LLM、多模态、推荐或AIGC相关论文者优先;
7. 具备良好的科研能力与团队协作能力,能够独立推进算法研究、实验分析与技术落地。

2. 三维重建与生成算法工程师
• 职位描述
1、参与面向室内设计场景的前沿多模态3D生成与编辑算法研发,参与高质量家具的3D自动化建模,以及完整室内三维空间的重建与生成。
2、探索并实现基于多样化三维底层表征(如3D Gaussian、Mesh、SDF、Point Cloud等)的高效压缩方案(如VAE范式)。在压缩与特征提取过程中,追求极致的几何精度、拓扑合理性与纹理材质真实度。
3、深入研究3D生成模型的网络架构,探索高效的多模态条件(如文本、图像等)注入与融合机制,提升模型在复杂约束下的计算效率、生成稳定性和细节表现力。
4、实践3D生成模型的预训练与后训练方案,提高流匹配模型预训练的稳定性与效率,并运用SFT、强化学习等后训练对齐策略,提高模型的生成质量和可控性。
5、针对业务场景的大规模应用需求,开展模型蒸馏与推理加速等前沿研究,优化模型推理效率,并参与相关算法在真实业务场景中的应用与落地。

• 职位要求
1. 计算机科学、人工智能、计算机图形学或相关专业硕士及以上学历;
2. 熟练掌握 Python 和 PyTorch,具备良好的深度学习工程能力;
3. 熟悉主流深度学习模型结构,如 Transformer、U-Net 等,对扩散模型、VAE、流匹配原理有深入理解;
4. 具备扎实的计算机图形学和3D视觉基础,熟悉常见三维表示方法(Mesh / Point Cloud / SDF / NeRF / Gaussian Splatting 等);
5. 熟悉三维重建、离线渲染、计算几何等相关理论与算法,具备使用 Open3D、PyTorch3D、Blender 等工具经验者优先;
6. 具备良好的科研能力与问题分析能力,有 SIGGRAPH / CVPR / ICCV / ECCV / NeurIPS 等顶会论文或相关研究经验者优先

#实习##阿里实习##淘天#
全部评论
接offer
点赞 回复 分享
发布于 03-16 20:05 浙江
学弟学妹们,我们组这边简历可以直达面试官的,可以先聊一下哦
点赞 回复 分享
发布于 03-13 10:28 浙江

相关推荐

多模态模型横向对比除了 Video-LLaMA,还了解哪些主流多模态大模型?→ 常见的有 LLaVA、Flamingo、BLIP、BLIP-2、KOSMOS、PaLI 等简单介绍 ALBEF 和 BLIP 这两个模型的核心设计→ ALBEF:基于图像 - 文本对比学习,搭配动量蒸馏来优化图文对齐效果;BLIP:引入 captioner 生成高质量图文对,再结合 filter 机制筛选优质数据BLIP-2 的整体结构是什么?两阶段训练流程是怎样的?用到了哪些损失函数?→ 结构:在 ViT 和大语言模型之间插入 Q-Former 作为中间桥梁→ Stage1:冻结 ViT 和语言模型,只训练中间的 Q-Former→ Stage2:冻结语言模型,将 Q-Former 与 LM 连接,做指令微调→ 损失:ITC(图文对比损失)+ ITM(图文匹配损失)+ LM 生成损失微调方法(PEFT 全家桶)了解 PEFT 吗?再讲讲 LoRA,重点说明低秩假设的合理性→ PEFT 是参数高效微调的统称,核心是只训练少量参数而不动原模型权重;LoRA 假设模型权重更新量 ΔW 具有低秩特性,将其分解为 A×B,只训练 A、B 两个低秩矩阵,既节省显存又能保留效果除了 LoRA,还有哪些 PEFT 方法?Prefix-tuning 和 P-tuning 有什么区别?→ 其他方法:Adapter Tuning、Prefix-tuning、P-tuning、IA³ 等→ Prefix-tuning:在输入序列前加可学习的 prefix,作用于注意力的 K/V 矩阵,更适合 decoder-only 架构→ P-tuning:用小型网络(如 LSTM)生成连续的 soft prompt,解决离散 prompt 不稳定的问题,更适配 encoder-decoder 模型大模型训练范式你项目中用到的大模型结构是什么?多模态特征是如何喂给大模型的?→ 示例流程:视频帧 → TimeSformer 提取时空特征 → 特征池化 → 线性投影对齐到文本维度 → 拼接到文本 prompt 之前 → 输入 LLM大模型在做了指令微调后,为什么还需要 RLHF?→ 指令微调只是让模型学会遵循指令,但输出可能更偏向 “模板化”;RLHF 是通过人类偏好对齐,让模型输出更符合人类价值观、更自然、更有用的回答,解决 “有用性” 和 “安全性” 问题了解 RLHF 吗?描述它的完整训练流程→ 三阶段流程:① SFT 微调:用高质量指令数据对预训练模型做监督微调,让模型学会基本指令遵循② 训练 Reward Model(RM):用人类标注的偏好数据训练奖励模型,学习给不同模型输出打分③ PPO 优化:用 RM 作为奖励信号,通过 PPO 算法更新策略模型,最大化 RM 给出的奖励,实现与人类偏好对齐手撕 LeetCode 原题:合并 k 个升序链表→ 核心思路:用小根堆维护 k 个链表的当前节点,每次弹出最小值节点并入结果链表,再将该节点的下一个节点入堆,直到所有链表遍历完毕;时间复杂度 O (N log k),N 为总节点数
查看9道真题和解析
点赞 评论 收藏
分享
评论
2
1
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务