lightning-uq-box是一个基于PyTorch和Lightning的库,旨在为现代神经网络提供多种不确定性量化(UQ)技术,支持灵活的模型训练和评估,并与现有的PyTorch项目无缝集成。
Modular Diffusion 是一个易于使用的模块化 API,旨在使用 PyTorch 设计和训练自定义扩散模型,适合多种应用场景,包括图像生成和去噪处理。
Zeta是一个高性能的AI模型构建框架,采用模块化和可重用的构建块,能够比PyTorch、TensorFlow等框架快80%。它旨在提高开发效率,降低学习曲线,适合各种规模的机器学习任务。
accelerate是一个工具,可以帮助用户在多种设备上简单地运行PyTorch训练脚本,支持多GPU和TPU训练,并提供了易于集成的解决方案。它使得混合精度训练变得简单,同时支持分布式训练,用户可以通过命令行接口轻松启动训练任务。
Ludwig v0.8是一个开源的低代码框架,旨在帮助开发者轻松构建先进的机器学习模型,特别是优化用于使用私有数据构建定制的大型语言模型(LLM)。它提供了一种声明式接口,使得模型的构建过程更加高效和简便。
Spio是一个专为PyTorch设计的高效工具,利用优化的CUDA内核显著提升卷积神经网络的训练效率,特别是在分组卷积的性能方面。
ColossalAI是一个开源的分布式AI大模型训练框架,旨在降低大规模AI大模型的训练成本和复杂度。它通过先进的并行计算技术,让开发者在有限硬件资源下也能高效训练超大规模大模型。支持多种并行策略、混合精度训练、内存优化等技术,广泛应用于大规模模型训练、科研实验和企业部署。
Tiny LLM zh 是一个从零开始的小参数量中文大语言模型,旨在帮助学习者快速掌握大模型相关知识。该项目提供了公开的数据和代码,支持多阶段训练和人类对齐技术,使得用户能够轻松入门并进行相关实验。
LLMPruner是一款专为大语言模型设计的裁剪工具,旨在优化模型性能并减少其参数量。它支持多种模型架构,并提供可视化工具,方便用户了解模型结构和裁剪效果,易于与现有机器学习工作流集成。
Megatron-LLM是一个专为大规模分布式训练设计的库,旨在高效支持语言模型的预训练和微调。它提供灵活的模型架构配置,并支持多种优化算法,使得用户可以根据需求进行优化和扩展,同时易于与其他深度学习框架集成。