工作职责 专注于AudioLLM通用音频理解模型的研究与开发,参与构建下一代音频基础模型和Omni多模态框架,探索语音、音乐、环境声音等多模态音频内容的统一理解建模方法,推动 audio AI 在理解、生成和交互场景中的技术突破。 核心职责: 1. 模型架构与训练:负责通用音频理解模型设计与分布式训练优化,实现语音识别、情感分析、音频问答、音乐理解、声音事件检测等多任务统一建模 2. 数据管线:设计并落地大规模多模态音频数据 pipeline,完成数据对齐、质量控制与自动标注 3. 跨模态融合:研究音频编码器与大语言模型融合技术,优化跨模态注意力与统一特征表示任职要求1. 计算机科学、人工智能、电子工程等相关博士学历 2. 具备大模型(LLM 或多模态)训练经验,熟悉 Transformer 架构与大规模分布式训练 3. 深入掌握以下至少一方向 • 通用音频自监督表征,如 Best-RQ, CLAP, wav2vec bert2.0 等 • Omni模型架构和多模态RL • 语音识别/情感识别/音乐信息检索算法 4. 精通 Pytorch,具备海量数据处理经验 5. 具备跨时区协作与良好沟通能力,结果导向,责任心强加分项1. 在 NeurIPS/ICML/ICASSP/ISMIR 等顶级会议发表论文 2. 负责过百万小时级多类型音频数据管理 3. 拥有音频文本跨模态对齐、指令微调或多任务学习实践 4. 在音频 AI 或音乐 AI 领域有开源贡献或技术影响力内推码 TRGV6