Qwen2.5-Math-7B-Instruct是2024年9月发布的数学推理专用指令微调模型,基于76.2亿参数的Qwen2.5-7B开发,支持BF16数据类型。该模型通过链式思维(CoT)和工具集成推理(TIR)方法解决中英文数学问题,在MATH基准测试中TIR模式得分达85.3,较前代Qwen2-Math性能显著提升。虽然被Eurus-2-7B-PRIME超越精度,但仍作为评估PRIME方法的基准模型。
来自清华团队开源的一个 AI 项目,通过强化学习技术训练出一个 7B 模型,在数学推理能力上超越 GPT-4o 以及 Llama-3.1 70B。
AI to Data 是一个由人工智能驱动的数据生成器,允许用户为任何用例生成真实数据。它采用先进的AI技术生成可靠和安全的数据。用户只需注册或登录平台,提供自然语言查询以指定所需数据类型和行数,系统将生成请求的数据,用户可以以CSV文件格式下载。
ToRA是一系列集成工具的推理大型语言模型代理,旨在通过与工具交互解决复杂的数学推理问题。
Claude 3.5 Sonnet 是一种结合动态思维链、反思和口头强化等技巧的语言模型,旨在提高测试时间计算能力,匹配 OpenAI o1 等推理能力强的模型。
AI Math是一个免费的在线平台,用户可以输入数学问题,系统会迅速提供解答,旨在帮助学生理解数学概念并提高他们的数学能力。
保持网络提出了一种新的语言大模型架构,相对于输入序列长度具有线性复杂度,支持并行和循环计算,能够在不增加内存成本的情况下扩展上下文长度,适合进行大规模语言建模和高效推断。最大模型参数可达到67亿个。
lite_llama是一个轻量级推理框架,旨在优化大型语言模型的性能,提供高达3.4倍的推理加速,支持最新的模型和流式输出功能,基于Triton实现,适用于各种需要高效推理的应用场景。
用Llama-3.1 70b在Groq上创建类似o1的推理链,旨在通过可视化步骤提升大型语言模型(LMM)的推理能力,使其能够“思考”并解决通常难倒领先模型的逻辑问题
一种处理噪声标签的少样本学习方法,旨在提高模型在标签不准确情况下的学习能力。该方法利用少量标记样本进行训练,具备对标签噪声的鲁棒性,适用于图像分类等任务。
Segmentle是一款独特的AI数字游戏,通过重新排列网格中的数字,确保每列的总和与上方显示的目标数字相匹配。利用ChatGPT的AI技术,该游戏提供动态难度调整,适合各种技能水平的玩家,旨在提高数学能力和问题解决能力。