首页
题库
面试
求职
学习
竞赛
More+
所有博客
搜索面经/职位/试题/公司
搜索
我要招人
去企业版
登录 / 注册
首页
>
试题广场
>
PEFT 方案里(LoRAQLoRAPrefixPro
[问答题]
PEFT 方案里(LoRA/QLoRA/Prefix/Prompt‑Tuning/Adapter)你怎么选?说说稳定训练的经验。
添加笔记
求解答(0)
邀请回答
收藏(18)
分享
纠错
1个回答
添加回答
0
Raymond_030927
资源足就用全量微调,不足就用Qlora量化,推理延迟敏感就用Adapter,如果需要promt 软提示就用PT(主要是大模型),
发表于 2026-03-14 06:14:44
回复(0)
这道题你会答吗?花几分钟告诉大家答案吧!
提交观点
问题信息
来自:
大模型应用-牛客面经八股
难度:
1条回答
18收藏
528浏览
热门推荐
相关试题
长上下文怎么搞?Rope scal...
评论
(2)
来自
大模型应用-牛客面经八股
SFT 和对齐(RLHF/DPO/...
评论
(2)
来自
大模型应用-牛客面经八股
MoE 怎么玩更稳?门控、路由、稀...
评论
(0)
来自
大模型应用-牛客面经八股
KV Cache 在训练和推理中的...
评论
(4)
来自
2025年-华为-AI算...
数据治理你怎么做?质量、去重、过滤...
评论
(1)
来自
大模型应用-牛客面经八股
扫描二维码,关注牛客网
意见反馈
下载牛客APP,随时随地刷题