大模型LLMs微调面经总结 超全版
1.如果想要在某个模型基础上做全参数微调,究竟需要多少显存?
2.为什么SFT之后感觉LLM傻了?
3.SFT 指令微调数据 如何构建?
4.领域模型Continue PreTrain 数据选取?
5.领域数据训练后,通用能力往往会有所下降,如何缓解模型遗忘通用能力?
6.领域模型Continue PreTrain ,如何 让模型在预训练过程中就学习到更多的知识?
7.进行SFT操作的时候,基座模型选用Chat还是Base?
8.领域模型微调 指令&数据输入格式 要求?
9.领域模型微调 领域评测集 构建?
10.领域模型词表扩增是不是有必要的?
11.如何训练自己的大模型?
12.训练中文大模型有啥经验?
13.指令微调的好处?
14.预训练和微调哪个阶段注入知识的?
15.想让模型学习某个领域或行业的知识,是应该预训练还是应该微调?
16.多轮对话任务如何微调模型?
17.微调后的模型出现能力劣化,灾难性遗忘是怎么回事?
18.微调模型需要多大显存?
19.大模型LLM进行SFT操作的时候在学习什么?
20.预训练和SFT操作有什么不同
21.样本量规模增大,训练出现OOM错
22.大模型LLM进行SFT 如何对样本进行优化?
23.模型参数迭代实验
2.为什么SFT之后感觉LLM傻了?
3.SFT 指令微调数据 如何构建?
4.领域模型Continue PreTrain 数据选取?
5.领域数据训练后,通用能力往往会有所下降,如何缓解模型遗忘通用能力?
6.领域模型Continue PreTrain ,如何 让模型在预训练过程中就学习到更多的知识?
7.进行SFT操作的时候,基座模型选用Chat还是Base?
8.领域模型微调 指令&数据输入格式 要求?
9.领域模型微调 领域评测集 构建?
10.领域模型词表扩增是不是有必要的?
11.如何训练自己的大模型?
12.训练中文大模型有啥经验?
13.指令微调的好处?
14.预训练和微调哪个阶段注入知识的?
15.想让模型学习某个领域或行业的知识,是应该预训练还是应该微调?
16.多轮对话任务如何微调模型?
17.微调后的模型出现能力劣化,灾难性遗忘是怎么回事?
18.微调模型需要多大显存?
19.大模型LLM进行SFT操作的时候在学习什么?
20.预训练和SFT操作有什么不同
21.样本量规模增大,训练出现OOM错
22.大模型LLM进行SFT 如何对样本进行优化?
23.模型参数迭代实验
全部评论
相关推荐
八股战士0offer:虽然但是,你想表达的应该是学习如何agent工程里的提示词工程,而不是训练或者微调模型,这基本上是两个不同的方向。我认为学习agent主要就两个东西:提示词工程和上下文工程。像你说的prompt caching这种优化怎么能想到,建议多读大模型供应商尤其是anthropic的博客,anthropic大概一年前就有很详细的博客讲最佳实践和实现了 点赞 评论 收藏
分享
查看6道真题和解析