Epochraft是一个数据加载器库,专注于即时标记化和检查点功能,特别用于流畅训练语言模型(LLM),旨在提高数据处理的效率和训练过程的灵活性。
Fast-LLM是一个开源库,旨在加速大型语言模型的训练。它具有快速的训练速度、良好的可扩展性,支持多种模型架构,并且提供易于使用的接口,适合研究和工业应用。
FasterTransformer是一个高度优化的基于Transformer的编码器和解码器组件,提供高效的推理和训练性能,支持多种Transformer模型,并兼容多种深度学习框架,灵活配置以满足不同需求。
RoboManipBaselines是一个集成了多种模仿学习方法和基准任务环境的软件,旨在为机器人操控提供基准和支持,提升学习效率与准确性。
Grok-1是xAI推出的开源大语言模型,拥有3140亿参数,适用于NLP任务,并提供JAX示例代码,便于加载、运行和微调。
FlashAttention是一个开源的推理加速工具,专为AI大模型设计,通过优化注意力机制的计算流程,显著提升推理速度,尤其适合需要实时响应的场景。其v2版本比v1快2倍,比标准注意力机制快5-9倍,在A100上达到225 TFLOPs/s的训练速度,并已在大多数LLM库中得到广泛应用。
Data Prep Kit 是一个开源项目,旨在为大型语言模型应用程序的开发者提供高效的数据准备和处理工具。该项目支持多种规模的数据处理,从个人电脑到数据中心级别,兼容代码和自然语言等多种数据模式,帮助用户简化数据准备流程。
一个简单的 Python 包,可以更轻松地在非公开或敏感数据以及没有互联网连接的计算机上运行大型语言模型 (LLM)。它支持本地环境,确保数据安全,适用于多种应用场景。
用于多维张量索引的项目,提供了一种简洁的语言来思考索引和相关操作,特色是可适用于大多数常见的张量框架,具有可读性和可靠性
FAMIE是一个快速的主动学习框架,专注于多语言信息抽取,旨在提高数据处理和模型优化的效率。它支持多种语言的信息抽取,提供用户友好的界面和灵活的模型配置,结合高效的数据标注工具,适用于快速迭代和评估不同的学习策略。
tracing 是一个框架,用于检测 Rust 程序以收集结构化的、基于事件的诊断信息。它支持灵活的事件记录和日志管理,适合异步编程的需求。
crystalcoder-data-prep是为CrystalCoder 7B LLM准备训练数据的代码,涵盖数据下载、token化、序列拼接、FIM增强和数据混洗等多个步骤,旨在提高模型训练的效率和效果。