DeepScaleR旨在为大语言模型(LLMs)提供强大的性能提升,仅用1.5B参数就超越了7B参数模型的性能。该项目完全开源,包括训练脚本、模型、数据集和日志,特别适用于参与AIME 2024竞赛的模型。
字节跳动提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型