关于大型语言模型(LLM)的 参数效率微调(Parameter-Efficient Fine-Tuning) 方法,下列哪些说法是正确的?
适应新任务时,只需更新模型的一小部分参数
LoRA(Low-Rank Adaptation)是一种参数效率微调的方法
参数效率微调的方法通常会显著降低模型的性能
这些方法可以显著减少部署大型模型的存储成本,并在多任务场景下降低计算资源需求
这道题你会答吗?花几分钟告诉大家答案吧!
扫描二维码,关注牛客网
下载牛客APP,随时随地刷题