ColossalAI是一个开源的分布式AI大模型训练框架,旨在降低大规模AI大模型的训练成本和复杂度。它通过先进的并行计算技术,让开发者在有限硬件资源下也能高效训练超大规模大模型。支持多种并行策略、混合精度训练、内存优化等技术,广泛应用于大规模模型训练、科研实验和企业部署。
一个用于在互联网上高效、全球分布式训练人工智能模型的框架,具备弹性设备网络、异步分布式检查点、实时检查点恢复等特性,旨在优化全球范围内的AI模型训练过程
建立在HuggingFace模型和PyTorch Fully Sharded Data Parallelism基础上的训练套件,旨在优化吞吐量,简化在资源受限环境中训练中型模型的分布式方案设置工作流程,尤其适用于学术集群。
distribuuuu是一个简单易用的PyTorch分布式训练框架,支持多种训练策略,提供高效的模型并行和数据并行能力,以及灵活的配置选项,配有良好的文档和示例支持,适合各种规模的深度学习训练任务。
最小化的分布式训练框架,专为教育目的设计,让你轻松学习并实验预训练Llama类模型
FasterTransformer是一个高度优化的基于Transformer的编码器和解码器组件,提供高效的推理和训练性能,支持多种Transformer模型,并兼容多种深度学习框架,灵活配置以满足不同需求。
一站式AI开发平台,支持机器学习、深度学习和大模型开发。它提供从数据管理到模型部署的全流程支持,涵盖在线开发、分布式训练、推理服务等功能,帮助企业和开发者高效构建AI应用。
这个开源项目的功能是对类似 #ChatGPT# 的模型进行简单、快速且经济实惠的 RLHF 训练。
accelerate是一个工具,可以帮助用户在多种设备上简单地运行PyTorch训练脚本,支持多GPU和TPU训练,并提供了易于集成的解决方案。它使得混合精度训练变得简单,同时支持分布式训练,用户可以通过命令行接口轻松启动训练任务。
HCP-Diffusion是一个基于diffusers的stable diffusion模型训练工具箱,旨在提供一个高效、灵活的环境来训练和微调多种stable diffusion模型,支持自定义数据集和模型参数,具有易于使用的API接口和高效的训练推理速度,适应不同用户的需求。
Efficient Large LM Trainer 是一款专为大规模语言模型设计的高效训练工具,旨在通过优化的算法和资源管理,提升训练速度并减少内存占用,支持多种硬件设备,便于用户集成和使用。
Lightning + Colossal-AI 是一个结合了Colossal AI和Lightning AI强大功能的大规模分布式模型训练框架,旨在简化模型训练和部署过程,同时优化内存使用和计算效率,具有强大的可扩展性,适用于多种硬件配置。
一个高效的深度学习训练框架,旨在简化模型训练和优化过程,提供了多种预训练模型和工具,适用于计算机视觉任务。
这是一个用于分布式PyTorch训练的基础项目,旨在帮助用户快速定制自己的网络。
lightning-uq-box是一个基于PyTorch和Lightning的库,旨在为现代神经网络提供多种不确定性量化(UQ)技术,支持灵活的模型训练和评估,并与现有的PyTorch项目无缝集成。
MusicGen模型训练器,旨在简化MusicGen和Audiocraft模型的训练过程,提供用户友好的界面和强大的功能,帮助用户轻松进行音频模型的训练和评估。
FlashAttention是一个开源的推理加速工具,专为AI大模型设计,通过优化注意力机制的计算流程,显著提升推理速度,尤其适合需要实时响应的场景。其v2版本比v1快2倍,比标准注意力机制快5-9倍,在A100上达到225 TFLOPs/s的训练速度,并已在大多数LLM库中得到广泛应用。
Wordware是一个基于网络的集成开发环境,专为大型语言模型(LLM)协调而设计,帮助跨职能团队构建AI应用。它作为LLM的后端,类似于一种新的编程语言,基于英语,同时融合了循环、逻辑和函数调用等概念。