算法面经1:大模型 金融大哥同花顺

9.1 同花顺 大模型(2+1)🚀
主要是以项目为主,掺杂八股,八股具体如下(忘记顺序是什么样子):
1. Transformer的自注意力机制及相比RNN的优势?
2. 自注意力计算中为何除以 $$\sqrt{d_k} $$?
3. 现在LLM微调的方式有哪些? 再问Adapter和Lora的区别?
4. LLM的架构有哪些?现在使用的是那种?为什么?
5. Prefix LM与Causal LM区别?
6. RLHF流程? 当时不太懂,没深问,现在需要多了解
7. 如何优化大模型训练速度?
8. 跨模态对齐你是如何做的?Q-Former与MLP适配器的优劣。
9. LLM训练中遇到Loss突增如何解决?

#实习# #秋招# #大模型# #nlp# #金融# #算法# #八股#
全部评论
有手撕吗
点赞 回复 分享
发布于 03-16 21:14 湖北
老哥!请问实习是面几轮呀
点赞 回复 分享
发布于 03-16 19:28 上海

相关推荐

bg:双9,2024级硕,传统工科专业,算法知识范围仅限知道一些机器学习理论,了解基本的pytorch语法,打算砖码算法岗位,计划研1下找一段实习,从今年3月初已经开始在各大平台搜索实习经验了。转码时间线:2.28开始有实习想法,但是在岗位上纠结,在后端,大模型岗位纠结。最终决定大模型岗3.1-3.7吴恩达机器学习3.8-3.21李沐深度学习3.22开始刷leedcode3.24开始做简历3.24-3.25在github上跑开源项目:BERT部署+文本分类3.25-4.1在github上跑开源项目:ChatGLM-6B部署+LLaMA-Factory微调+Prompt模板3.27注册BOSS直聘3.28参加了第一场初创公司大模型的面试,感觉面试还可以,基本上能hold住但最后也都无疾而终了,盲猜可能是技术栈不太相符以及觉着我是低年级。3.29-4.5在github上跑开源项目:Llama3-8B+RAG4.7收到三家公司面试4.7下午面试一家中厂,问题太工程,而我是凑开源项目+偏算法理论性的科研,完全经不住拷打。4.8收到第一个offer,岗位感觉偏大模型调研,拒绝。4.10收到第二个offer,离学校路程半小时+大模型核心岗,但小厂,接收。回归整个实习准备,对我个人而言其实最难的是不断细化调整方向,以及在面试pass被无数次的心态调整,但总体来说是看着自己一步步的进步。记得第一次修改简历时,我对着空白文档发呆了两个小时,如今却能快速抓住岗位JD的关键词进行精准匹配;曾经在群面中紧张到声音发抖,现在面对压力面试已经能从容展现逻辑思维。
大模型海文:项目地址可以开源给大家 后台T一下
点赞 评论 收藏
分享
评论
10
37
分享

创作者周榜

更多
牛客网
牛客企业服务