奇富科技 大模型实习一面(2025.01.10)49min
1、自我介绍
2、详细讲一下nlp这个项目
3、为什么选择chatglm3-6b模型,不是还有很多其他模型选择吗?
4、lora原理
5、qwen和llmam模型的结构知道吗?(我说不太清楚,可以讲一下chatglm的),吟唱到一半他说好了不用这么详细
6、旋转位置编码讲一下?他有什么特点吗?
7、chatglm支持的最大上下文是多少?预训练的时候就是这么长的吗?长度外推了解吗?
8、RAG怎么做的?RAG用的Embedding模型用的是哪个,为什么?
9、使用transformer-Encoder的模型知道有哪些吗?(Bert)
10、为什么LLM都用Deconder-only
11、VLLM原理,为什么只缓存KV,不缓存Q
12、代码题:三数之和
13、反问(四板斧,公司业务,算力资源,强化学习,学习建议)
其他模型的架构还是要了解一些的,不能局限于自己用的一些大模型。面试官建议基础打牢,多了解模型的发展,从CNN、RNN到transformer。
#面试##大模型##实习#
2、详细讲一下nlp这个项目
3、为什么选择chatglm3-6b模型,不是还有很多其他模型选择吗?
4、lora原理
5、qwen和llmam模型的结构知道吗?(我说不太清楚,可以讲一下chatglm的),吟唱到一半他说好了不用这么详细
6、旋转位置编码讲一下?他有什么特点吗?
7、chatglm支持的最大上下文是多少?预训练的时候就是这么长的吗?长度外推了解吗?
8、RAG怎么做的?RAG用的Embedding模型用的是哪个,为什么?
9、使用transformer-Encoder的模型知道有哪些吗?(Bert)
10、为什么LLM都用Deconder-only
11、VLLM原理,为什么只缓存KV,不缓存Q
12、代码题:三数之和
13、反问(四板斧,公司业务,算力资源,强化学习,学习建议)
其他模型的架构还是要了解一些的,不能局限于自己用的一些大模型。面试官建议基础打牢,多了解模型的发展,从CNN、RNN到transformer。
#面试##大模型##实习#
全部评论
相关推荐
点赞 评论 收藏
分享
04-21 21:01
广东工业大学 Java 点赞 评论 收藏
分享