DinkyTrain是普林斯顿大学NLP团队基于fairseq构建的预训练库,集成了DeepSpeed内核,旨在提供高效的模型训练和简化的训练过程,支持灵活的配置选项。
funNLP是一个几乎包含所有中文NLP资源的综合性平台,旨在为NLP初学者和爱好者提供丰富的学习和实验工具,同时满足用户的收集需求。
这是一个基于TensorPack框架的实现与模型集锦,包含多种预训练模型,适用于图像处理和计算机视觉任务,易于扩展和自定义。
在本地计算机上微调 LLAMA-v2(或任何其他 LLM)的最简单方法,提供用户友好的界面和高效的训练过程,支持多种语言模型,方便用户上传数据并进行微调。
accelerate是一个工具,可以帮助用户在多种设备上简单地运行PyTorch训练脚本,支持多GPU和TPU训练,并提供了易于集成的解决方案。它使得混合精度训练变得简单,同时支持分布式训练,用户可以通过命令行接口轻松启动训练任务。
WordLlama是一个快速、轻量的自然语言处理工具包,能够处理模糊去重、相似度评估和排名任务,优化了CPU硬件并且具有最小的推理时间依赖性。
NanoGPT是一个开源的轻量级语言模型训练工具,专为语言模型爱好者打造,适合在普通电脑上进行GPT架构的训练和实验。它通过精简架构、优化梯度计算和内存管理,使得在普通硬件上也能高效训练语言模型。
Ludwig v0.8是一个开源的低代码框架,旨在帮助开发者轻松构建先进的机器学习模型,特别是优化用于使用私有数据构建定制的大型语言模型(LLM)。它提供了一种声明式接口,使得模型的构建过程更加高效和简便。
苏秦(suqin)语言大模型全工具链 WebUI 整合包,旨在实现目前各大语言模型的全流程工具 WebUI 整合包,无需编写代码即可拥有自己的定制模型与专属应用。
Wordware是一个基于网络的集成开发环境,专为大型语言模型(LLM)协调而设计,帮助跨职能团队构建AI应用。它作为LLM的后端,类似于一种新的编程语言,基于英语,同时融合了循环、逻辑和函数调用等概念。
一种快速模仿学习工具,通过图扩散技术实现即时策略生成,帮助机器人快速学习新任务
ColossalAI是一个开源的分布式AI大模型训练框架,旨在降低大规模AI大模型的训练成本和复杂度。它通过先进的并行计算技术,让开发者在有限硬件资源下也能高效训练超大规模大模型。支持多种并行策略、混合精度训练、内存优化等技术,广泛应用于大规模模型训练、科研实验和企业部署。
一个 Python 库,用于创建和处理自然语言处理 (NLP) 数据集,以便训练大型语言模型 (LLM)。该库包含一些可扩展的模块,允许 NLP 研究人员从无标注 Web 采集高质量文本,并提供 GPU 加速功能。