rLLM是Agentica项目团队开发的开源框架,旨在为大语言模型(LLM)提供完整的强化学习(RL)解决方案。 该项目通过开源训练脚本、模型参数、数据集和评估日志,实现了对DeepSeek R1和OpenAI O1/O3等先进模型的复现。 核心创新包括支持32K-64K长上下文训练、异步流水线优化技术(verl-pipe),以及发布DeepCoder-14B/1.5B等高性能代码生成模型和DeepScaleR数学推理模型。 项目由伯克利Sky Computing实验室和BAIR研究院支持,与Together AI合作开发。
关于算法代码生成的数据集,具有更大规模、更高质量和更精细标签的特点,旨在提供一个更具挑战性的训练数据集和评估基准,用于代码生成模型领域
JADE-Database是面向国内开源和国外商用大模型的Demo数据集,包含多种自然文本数据,覆盖多个问题类型,旨在用于大模型的靶向安全评测。
这是一个精心整理的医疗和健康领域流行数据集、模型和论文的列表,旨在为医学/健康领域的LLM提供支持。该项目定期更新,以反映最新的进展,并采用用户友好的组织方式,方便导航。
Anote平台通过人性化的AI技术,积极从人类反馈中学习,不断优化GPT-4、Bard、Claude等AI算法及RLHF、Fine-Tuning和RAG等技术,使其在特定用例中随着时间的推移表现得更好。
一种计算效率高的多模态混合专家模型,能够从包括多个长文档和数小时的视频和音频在内的数百万个Tokens上下文进行推理。
Fast-LLM是一个开源库,旨在加速大型语言模型的训练。它具有快速的训练速度、良好的可扩展性,支持多种模型架构,并且提供易于使用的接口,适合研究和工业应用。
Vicuna是一个由Vicuna团队开发的开源聊天机器人,经过用户分享的对话微调,表现优于大多数模型。
一个魔改版的llama2.c,旨在利用1998年的计算机硬件(Intel Pentium II CPU + 128MB RAM)在Windows 98系统上运行大模型。
flash-attention是一个基于FlashAttention优化的Transformer实现,其训练速度在GPT2和GPT3上比Huggingface的实现快3-5倍,显著提升了训练效率,同时优化了内存使用,并支持多种硬件加速。
ULLME是一个统一的框架,旨在通过生成增强学习优化大型语言模型的嵌入,支持双向注意力机制以及多种微调策略,帮助提升模型的性能和效果。
该项目提供了多种梯度下降算法的实现,旨在高效优化机器学习模型的训练过程。
LITMUS Predictor是一款强大的AI助手,旨在帮助开发者构建可靠、高性能且公平的多语言自然语言处理系统。它支持多种语言的处理,提供高性能和可靠性,并具备公平性评估功能,易于集成和使用,同时提供灵活的模型训练选项,以满足不同用户的需求。
Imagen是一个文本到图像的扩散模型,具有极高的真实感,利用大型变换器语言模型来理解文本并生成高保真图像。它在COCO数据集上取得了7.27的最先进FID分数,并在样本质量和图像-文本对齐方面被人类评审者优先选择。
一个用于评估奖励模型和LLM裁判的基准测试,帮助在大规模LLM训练和评估中复制人类偏好,包含真实的人类偏好数据和可验证的正确性偏好数据。
一个用于评估稀疏自编码器(SAE)模型性能的工具,提供了8种不同的评估方法,帮助研究人员和开发者更好地理解和优化SAE模型。