告别人工出题!PromptCoT 2.0 让大模型自己造训练难题 近年来,大语言模型(LLM)的训练依赖大量人工标注数据,成本高昂且效率低下。PromptCoT 2.0 的提出彻底改变了这一局面,它利用大模型自身生成高质量合成数据,仅用 7B 参数的模型就能超越人工数据集的效果。这一技术突破为 LLM 训练提供了全新范式。 PromptCoT 2.0 的核心原理 PromptCoT 2.0 基于思维链(Chain-of-Thought, CoT)技术,通过引导大模型自动生成复杂推理问题及其解答。该方法的关键在于利用结构化提示(Structured Prompting)让模型自我迭代优化数据生成...