AI交流(进群备注:RefAug)

RefAug是一种用于反思和思维链的合成数据增强方法,旨在通过将问题反思和思考嵌入到以数学为重点的训练数据中,提高模型的推理能力。该方法通过生成替代推理和后续推理,将反思整合到训练示例中,从而增强模型在数学任务和编码任务中的表现。
RefAug的特点:
- 1. 提高数学任务的准确率,提升6.8分
- 2. 在Pass指标中将代码性能提升+3.5个百分点
- 3. 81.11%的案例在使用反射进行错误修正中表现优于DeepSeek Math
- 4. 在推理任务上的表现优于传统的思维链(CoT)
- 5. 训练数据越多,性能越好
- 6. 发布代码、提示、数据集和脚本
RefAug的功能:
- 1. 数据准备:收集数学问题或编码任务的数据集
- 2. 产生反思:对于每个问题,产生使用不同方法或观点解决的替代推理和后续推理
- 3. 数据增强:将反射整合到训练示例中,每个训练实例包含原始问题、其解决方案和反射部分
- 4. 微调:使用增强数据集对LLM进行微调,确保模型学习即时解决方案的前向推理和反射推理
相关导航

MiniMind开源项目 – 低成本快速训练超小语言模型
MiniMind 是一个开源 AI 项目,旨在从零开始,以极低的成本和极短的时间训练出超小语言模型。项目涵盖了从数据集清洗到模型训练的全过程,并提供了多种先进的算法和模型结构。通过仅需 3 块钱成本和 2 小时,即可训练出 25.8M 的超小语言模型,最小版本体积是 GPT-3 的 1/7000,适合普通个人 GPU 快速训练。项目还拓展了视觉多模态的 VLM: MiniMind-V,所有核心算法代码均从 0 使用 PyTorch 原生重构,不依赖第三方库提供的抽象接口。这不仅是大语言模型的全阶段开源复现,也是一个入门 LLM 的教程。
暂无评论...