1. 模型训练里你怎么在全参微调和 LoRA 之间做选择这个问题我一般不会只从显存够不够来答,而是会结合任务复杂度、分布偏移程度和上线方式来讲。全参微调的优点是表达空间更大,适合任务分布和原模型差异比较大的场景,比如领域知识很重、输出风格和推理路径都要明显改造的时候,它更容易学到深层适配;LoRA 这类 PEFT 方法更适合成本敏感、实验迭代快、模型版本频繁切换的场景,特别是多任务并行或者多租户配置时,管理上会轻很多。如果任务本质上是在原模型能力基础上做轻量偏移,比如格式约束、领域术语补强、特定工具调用习惯,LoRA 往往就够了。反过来,如果发现训练后模型虽然会答,但深层行为模式改不动,比如推...