该项目探讨了强化学习(RL)在大型语言模型微调中的价值,特别关注基于人类反馈的强化学习(RLHF)为何通常优于离线偏好微调方法。论文提出了“生成-验证差距”假说,解释RLHF通过学习一个相对简单的奖励模型,并将策略搜索空间限制在对该奖励模型最优的策略子集,从而实现更好的性能。项目包括理论分析和实验验证,并提供了贝叶斯和频率学方法的替代方案。
OpenAI的强化微调研究计划(Reinforcement Fine-Tuning Research Program)是一个开发者可以申请参与的alpha阶段项目,旨在通过强化学习技术对AI模型进行定制,特别针对需要高准确度的领域如法律、医疗和金融。该计划通过提供数十到数千个高质量任务和参考答案,评分模型的响应,从而提升其在特定领域任务上的推理能力和准确性。预计2025年初正式发布。
AutoDidact 是一个强化学习微调项目,旨在通过大模型监督小模型学习,减少人工监督的需求,从而提高模型的问题回答准确率。项目支持函数调用和代理反馈循环,被训练模型会根据文档生成自己的问题,并使用搜索工具在语料库中寻找答案。此外,项目使用其他大模型作为评判标准来评估回答的正确性,并通过强化学习(RL)提高模型能力,从而节省大量人工监督时间。