DeepScaleR旨在为大语言模型(LLMs)提供强大的性能提升,仅用1.5B参数就超越了7B参数模型的性能。该项目完全开源,包括训练脚本、模型、数据集和日志,特别适用于参与AIME 2024竞赛的模型。