科大讯飞飞星认知大模型一面
📍面试公司:科大讯飞
🕐面试时间:251017
💻面试岗位:飞星计划认知大模型AI算法工程师
❓面试问题:
1. 自我介绍,这中间问我实验室是不是国重,不知道干嘛。
2. 讲一篇发表的论文,中间问我是怎么保证问题约束满足的。顺着论文开始问DRL,问我用的什么DRL、DQN和SARSA/Q-learning比的优点,TD3和DQN比的优点,Q值选最大的缺点,DDQN(我又引出了TD3)用两个Q网络做什么,exploration怎么做,on-policy和off-policy的区别,Q网络怎么设计,用什么损失函数,口述交叉熵公式,PPO、DPO、GRPO介绍。顺着简历又问联邦学习是什么。
3. 问在研课题(简历里的),顺着问知道什么大模型微调方法,我说LoRA,让我介绍LoRA,问具体微调哪部分参数、面对的任务、用到的预训练大模型是什么,Qlora有无了解。
4. 反问:总部在合肥,面试官是做偏应用的,比如教育方面的应用,也有基座星火大模型研究方向,认知大模型方向挺大的加班没有互联网大厂严重。不知道将来简历会流转到哪里去。。。
🙌面试感想:全程40分钟,无手撕,无代码python问题,感觉把我的记忆拉到5年前刚学DRL的时候了,总的来说是基本的“八股”问题吧。全程氛围挺轻松的~
#发面经攒人品# #大厂面试问八股多还是项目多?#
🕐面试时间:251017
💻面试岗位:飞星计划认知大模型AI算法工程师
❓面试问题:
1. 自我介绍,这中间问我实验室是不是国重,不知道干嘛。
2. 讲一篇发表的论文,中间问我是怎么保证问题约束满足的。顺着论文开始问DRL,问我用的什么DRL、DQN和SARSA/Q-learning比的优点,TD3和DQN比的优点,Q值选最大的缺点,DDQN(我又引出了TD3)用两个Q网络做什么,exploration怎么做,on-policy和off-policy的区别,Q网络怎么设计,用什么损失函数,口述交叉熵公式,PPO、DPO、GRPO介绍。顺着简历又问联邦学习是什么。
3. 问在研课题(简历里的),顺着问知道什么大模型微调方法,我说LoRA,让我介绍LoRA,问具体微调哪部分参数、面对的任务、用到的预训练大模型是什么,Qlora有无了解。
4. 反问:总部在合肥,面试官是做偏应用的,比如教育方面的应用,也有基座星火大模型研究方向,认知大模型方向挺大的加班没有互联网大厂严重。不知道将来简历会流转到哪里去。。。
🙌面试感想:全程40分钟,无手撕,无代码python问题,感觉把我的记忆拉到5年前刚学DRL的时候了,总的来说是基本的“八股”问题吧。全程氛围挺轻松的~
#发面经攒人品# #大厂面试问八股多还是项目多?#
全部评论
相关推荐
点赞 评论 收藏
分享
