首页 > 试题广场 >

在大语言模型的分布式训练中,"模型并行"(Model Par

[单选题]
在大语言模型的分布式训练中,"模型并行"(Model Parallelism)指的是什么?
  • 在多个设备上复制整个模型,每个设备处理不同的数据批次
  • 将模型的不同层分配到不同的设备上
  • 使用多个不同的模型同时训练
  • 在训练过程中动态调整模型结构
  • 将模型的不同层分配到不同的设备上,这不是流水线并行吗
发表于 2025-08-19 16:35:31 回复(0)