Hugging Face 实现并开源的推理阶段计算扩展研究,通过动态计算策略提升小型语言模型的性能。
Merlin是一种由和支持的新型MLLM,展示了增强的视觉理解、未来推理和多图像输入分析能力。研究人员提议将未来建模引入多模态LLM(MLLMs)中,以提高对基本原则和主体意图的理解。他们利用了现有学习范式启发的预见性预训练(FPT)和预见性指令调优(FIT)技术。
旨在开发支持大规模并行训练的机器学习天气和气候模型的PyTorch框架,Makani 提供高效的计算资源利用,帮助研究人员进行气候变化研究和天气预测。
一个开源项目,旨在实现 OpenAI O1 模型系列的简化版本,专注于通过链式思维和强化学习解决算术问题。该项目结合了最新的技术,使得用户能够更加高效地解决算术问题,并且通过强化学习不断提升模型的表现。
RE2通过在提示中重复输入问题两次来提高LLM的推理能力,增强对问题的理解,并促进单向解码器 LLM 的双向编码。该方法兼容现有的思想激发提示技术,适用于多种LLM和推理任务,能够有效提高模型的表现。
该项目证明可以将 LLMs 的工作负载分散到多个设备上并实现显著的加速,支持在低功耗设备上运行,兼容Llama 2 70B模型。
字节跳动提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型