share下我大模型岗的简历吧~

决定去字节aml之后,不会继续找暑期了。当时找工作焦头烂额时,牛客的前辈帮助了我很多(主要是牛客认识的人比较少)。和大家share下我hpc岗的简历吧,也希望在秋招的时候我简历能更上一层楼。
————————————
最近能碰到一些朋友想来做hpc,个人认为这个岗位需要懂算法+懂一两个框架+懂cuda+懂一些底层硬件实现才好。同时大家也可以同时找一些模型部署岗试试
#正在实习的碎碎念# #我的上岸简历长这样#  #我的实习求职记录#
全部评论
纯好奇,硕士期间怎样能实习这么久
6 回复 分享
发布于 2024-02-24 16:06 河南
大佬 我最近也在面AML的实习 请问可以咨询您一两个问题吗
1 回复 分享
发布于 2024-05-18 23:47 江苏
老哥,请问下,hpc岗工作强度怎么样啊?
1 回复 分享
发布于 2024-03-04 07:43 北京
老哥很帅😋
1 回复 分享
发布于 2024-02-24 23:33 新疆
大佬 字节aml工作体验咋样呀
点赞 回复 分享
发布于 2024-11-06 13:44 广东
大佬能分享一下 aml 面经吗?
点赞 回复 分享
发布于 2024-04-25 12:51 陕西
学长!!能和您交流下么😢 我也是北邮的 想转hpc方向
点赞 回复 分享
发布于 2024-04-11 23:29 广东
大佬tql
点赞 回复 分享
发布于 2024-03-05 21:51 北京
tensorrt会问什么 图编译算子融合不都是自动的吗 Triton是pythonic的cuda 会问啥 tvm又会问什么
点赞 回复 分享
发布于 2024-02-24 16:52 江苏
大佬!!
点赞 回复 分享
发布于 2024-02-24 15:14 上海

相关推荐

真服了,我不信有这个题,还不会常见的业务题◆ 大模型(LLMs)基础面• 目前主流的开源模型体系有哪些?• prefix Decoder 和 causal Decoder 和 Encoder-Decoder 区别是什么?• 大模型LLM的 训练目标 是什么?• 涌现能力是啥原因?• 为何现在的大模型大部分是Decoder only结构?• 简单 介绍一下 大模型【LLMs】?• 大模型【LLMs】后面跟的 175B、60B、540B等 指什么?• 大模型【LLMs】具有什么优点?• 大模型【LLMs】具有什么缺点?◆ Layer normalization 篇• Layer Norm 的计算公式写一下?• RMS Norm 的计算公式写一下?• RMS Norm 相比于 Layer Norm 有什么特点?• Deep Norm 思路?• 写一下 Deep Norm 代码实现?• Deep Norm 有什么优点?• LN 在 LLMs 中的不同位置 有什么区别么?如果有,能介绍一下区别么?• LLMs 各模型分别用了 哪种 Layer normalization?◆ LLMs 激活函数篇• 介绍一下 FFN 块 计算公式?• 介绍一下 GeLU 计算公式?• 介绍一下 Swish 计算公式?• 介绍一下 使用 GLU 线性门控单元的 FFN 块 计算公式?• 介绍一下 使用 GeLU 的 GLU 块 计算公式?• 介绍一下 使用 Swish 的 GLU 块 计算公式?◆ Attention 升级面• 传统 Attention 存在哪些问题?• Attention 优化方向• Attention 变体有哪些?• Multi-head Attention 存在什么问题?• 介绍一下 Multi-Query Attention?• 对比一下 Multi-head Attention 和 Multi-Query Attention?◆ transformers 操作篇◆ LLMs 损失函数篇◆ 相似度函数篇◆ 大模型(LLMs)进阶面◆ 大模型(LLMs)微调面◆ LLMs 训练经验帖◆ 大模型(LLMs)langchain 面◆ 多轮对话中让AI保持长期记忆的8种优化方式篇◆ 基于langchain RAG问答应用实战◆ 基于LLM+向量库的文档对话 经验面.......
大模型海文:所有面试题可以开源给大家 后台T一下
点赞 评论 收藏
分享
评论
33
92
分享

创作者周榜

更多
牛客网
牛客企业服务