一个可定制、简洁、用户友好且高效的工具包,用于训练和微调大型语言模型,支持多种训练和优化方法,以提高模型性能和稳定性。
一个基于HuggingFace开发的大语言模型训练、测试工具。支持各模型的webui、终端预测,低参数量及全参数模型训练和融合、量化。
Efficient Large LM Trainer 是一款专为大规模语言模型设计的高效训练工具,旨在通过优化的算法和资源管理,提升训练速度并减少内存占用,支持多种硬件设备,便于用户集成和使用。
FastLLM是一个动态策略选择的深度学习模型训练代码库,集成了Deepspeed、Megatron、FlashAttention、CudaFusionKernel和编译器技术,旨在优化大规模语言模型的训练效率,提供更加灵活和高效的训练方案。
这是一个用于分布式PyTorch训练的基础项目,旨在帮助用户快速定制自己的网络。
Fine-tune Phi-2是一个用于对Phi-2模型进行微调的项目,包含使用QLoRA技术进行微调、创建合成对话数据集以及支持多个GPU并行训练的功能。该项目提供了详细的示例代码和文档,允许用户灵活配置训练参数,以便优化模型的表现。
这是一个为gpt-3.5-turbo模型提供的微调图形界面,通过简单易用的Web界面,用户可以自定义数据集进行微调,并实时查看训练进度和结果。
这个开源项目的功能是对类似 #ChatGPT# 的模型进行简单、快速且经济实惠的 RLHF 训练。
qlora-pipe是一个开源脚本,旨在通过在四块4090 GPU上进行定制训练,以高效的方式训练大型语言模型(LLM)。它支持多块GPU的并行训练,并提供多种配置选项以优化训练流程,确保用户能够根据不同的需求灵活调整训练参数。
ColossalAI是一个开源的分布式AI大模型训练框架,旨在降低大规模AI大模型的训练成本和复杂度。它通过先进的并行计算技术,让开发者在有限硬件资源下也能高效训练超大规模大模型。支持多种并行策略、混合精度训练、内存优化等技术,广泛应用于大规模模型训练、科研实验和企业部署。
OpenAI Tools是一个综合工具包,旨在帮助用户充分利用他们的OpenAI账号。它提供了API使用情况跟踪、ChatGPT微调数据集管理、微调任务的创建、监控和取消、训练日志的审查和可视化、直接测试和比较微调及其他模型等功能。
一站式AI开发平台,支持机器学习、深度学习和大模型开发。它提供从数据管理到模型部署的全流程支持,涵盖在线开发、分布式训练、推理服务等功能,帮助企业和开发者高效构建AI应用。
QA-CLIP是一个支持中文文本和图像的多模态理解的模型,具有最先进的性能和准确性,能够用于多种下游任务,如图像分类、文本生成等,且易于集成和使用。
为Google Cloud TPU优化的Transformers模型,提供高性能AI训练和推理接口,支持多种大规模语言模型。
这是一个具有370亿参数的生成式多模态模型,使用统一的自回归目标在大规模多模态序列上进行训练。
eigenGPT是一个基于C++的高效实现,旨在提供简化的GPT2架构,易于理解和扩展,适合嵌入式系统和资源受限环境。
一个将Transformers与YOLO及其他单阶段检测器(SSD)结合的深度学习框架,提供高性能推理和便捷的CLI接口。支持D-FINE等先进模型,具备视频流推理、自动分布式训练等特性。适用于需要transformer增强的目标检测任务,提供Python API和Docker部署支持。
用JAX/Flax训练的SmolLM风格语言模型,能在有限的计算资源下高效预训练,快速达到较高性能。该项目专注于利用现代深度学习框架JAX和Flax,提供灵活的训练选项,并优化资源使用,使其适合在计算资源受限的环境中进行实验和开发。