论文题目:HIRAG: Hierarchical-Thought Instruction-Tuning Retrieval-Augmented Generation论文地址:https://arxiv.org/pdf/2507.05714v2核心要点:HIRAG(Hierarchical-Thought Instruction-Tuning Retrieval-Augmented Generation)通过三级递进能力(过滤、组合、推理)解决传统RAG仅关注信息检索而忽视有效利用的痛点,在小规模模型上实现媲美甚至超越大模型的复杂问答性能。实验结论1、能力递进设计:通过三级任务(过滤→组合→推理)的递进式训练,模型获得了处理复杂RAG场景的系统性能力,而非零散的技巧。2、小模型大突破:HIRAG(Llama3-8B)在多个数据集上超越了13B甚至70B规模的基线模型,证明了方法的高效性和数据利用能力。3、跨模型泛化:在Llama2、Llama3和Qwen2.5等不同系列模型上均取得一致提升,表明HIRAG的训练范式具有普适性。