只对attention的q_proj和v_proj应用LoRA即可
对attention的q_proj、k_proj、v_proj、o_proj以及MLP的gate_proj、up_proj、down_proj都应用LoRA,追求效果时更全面
只对MLP层应用LoRA,因为MLP层参数量更大
对所有层都应用LoRA,包括LayerNorm和Embedding层
这道题你会答吗?花几分钟告诉大家答案吧!
扫描二维码,关注牛客网
下载牛客APP,随时随地刷题