AI交流(进群备注:DeepScaleR)

DeepScaleR旨在为大语言模型(LLMs)提供强大的性能提升,仅用1.5B参数就超越了7B参数模型的性能。该项目完全开源,包括训练脚本、模型、数据集和日志,特别适用于参与AIME 2024竞赛的模型。
DeepScaleR的特点:
- 1. 仅用1.5B参数就超越了7B参数模型的性能
- 2. 在AIME 2024竞赛中达到43.1%的Pass@ 1准确率
- 3. 全部开源,包括训练脚本、模型、数据集和日志
DeepScaleR的功能:
- 1. 适用于大语言模型的性能提升
- 2. 参与AIME 2024竞赛的模型
- 3. 用于研究和开发中的强化学习应用
相关导航
暂无评论...