Magix 是一个用于训练大规模语言模型的轻量工具,具有灵活的数据和模型平行功能。它支持与 Hugging Face Transformers 的兼容性,能够高效处理数据,提供灵活的训练环境,适合研究人员和开发者使用。
AMD GPU推理引擎:基于 Docker 的 AMD GPU 推理引擎项目,旨在在 AMD GPU 上运行大型语言模型(LLMs),特别是 Hugging Face 的 LLaMA 模型家族。该项目提供了高效的推理性能,并支持容器化部署,方便用户进行模型的集成和使用。
这是一个开源实现,旨在为Meta的Llama3.2-Vision系列模型提供微调功能,支持高效训练,兼容Liger-Kernel,提升模型性能和训练效率。
通过对文本数据进行标记而不需要额外编码来迁移学习NLP模型,结合了Label Studio的强大功能,支持多种数据格式,利用HuggingFace的transformers实现高效的数据标记和模型预测服务。
nanotron是一个开源工具,旨在简化大型语言模型的训练过程,提供了一种高效的3D并行训练方法,从而更好地利用计算资源。
这是一个超快的文本嵌入模型推断解决方案,支持多种文本嵌入模型,易于集成和使用,具有高效的资源管理能力。
一个开源项目,允许用户在 MacOS 上与本地数据进行聊天对话,帮助总结或分析信息,支持多个开源大语言模型。
llama_index是一个高效的半结构化检索工具,专注于多模态数据处理,能够与Gemini Pro Vision无缝集成,提供易于使用的API,适合开发者和研究人员在各种应用场景下进行数据检索和分析。
GoAIAdapt是一个AI软件平台,提供创建或导入数据集、应用机器学习算法和部署强大人工智能模型的前沿解决方案。
Spio是一个专为PyTorch设计的高效工具,利用优化的CUDA内核显著提升卷积神经网络的训练效率,特别是在分组卷积的性能方面。