YOLOX-M1-Mac是一款高性能的无锚点YOLO模型,性能超越yolov3~v5,支持MegEngine、ONNX、TensorRT、ncnn和OpenVINO等多种框架,特别针对M1 Mac进行了优化。
Quadra 是一个通过配置文件简化深度学习工作流的工具,支持多种实验设置和超参数调优。它与 Hydra、Lightning 框架和 PyTorch 集成,使得深度学习工作流更加易于管理和重现。
Gradio是一个开源工具,旨在简化与机器学习模型的交互,帮助开发者快速构建可视化界面。它支持多种输入输出格式,如文本、图像、视频、音频等,并能与多种深度学习框架如TensorFlow、PyTorch等无缝集成。Gradio完全开源,社区积极贡献和支持定制化开发,适合快速原型开发和模型展示。
EquiTriton 是一个专为等变神经网络设计的高性能神经网络核工具,旨在提升神经网络的计算效率。它使用 Triton-lang 编写,提供了高性能的计算核,能够显著加速等变神经网络的训练和推理过程。该工具还支持在深度学习框架中集成高性能计算核,优化神经网络模型的推理速度,并支持大规模神经网络的并行计算。
PEFT 是一个先进的参数高效微调库,支持多种微调方法,易于集成到现有深度学习框架中。它提供了预训练模型的微调接口,支持多种任务,如文本分类、问答系统等,并且能够高效地利用内存和计算资源。
混合自回归线性核(Mixed Auto-Regressive Linear kernel),一个经过高度优化的FP16xINT4矩阵乘法核,用于LLM推理,可以在批量大小为16-32个token的情况下实现接近理想的约4倍加速。
EasyNLP是一个功能全面且易于使用的自然语言处理工具包,支持多种NLP任务,提供丰富的预训练模型,并能与多种深度学习框架无缝集成。它拥有良好的文档和社区支持,旨在简化用户的NLP开发流程。
Megatron-LLM是一个专为大规模分布式训练设计的库,旨在高效支持语言模型的预训练和微调。它提供灵活的模型架构配置,并支持多种优化算法,使得用户可以根据需求进行优化和扩展,同时易于与其他深度学习框架集成。
LaMini-LM是一个对多个迷你大语言模型进行微调的项目,旨在提升模型的性能,其中包括经过微调的GPT-2,其性能可与LLaMa的Alpaca-7B相媲美。
WizardLLM 是由北大和微软亚研院提出的一种高效训练大型语言模型的方法,旨在通过利用小规模数据集,借助GPT生成更大且难度逐步提升的数据集,从而显著降低训练成本。该方法适用于数据稀缺的场景,帮助研究人员和开发者在资源有限的条件下仍能训练出高性能的语言模型。
Grok-1是xAI推出的开源大语言模型,拥有3140亿参数,适用于NLP任务,并提供JAX示例代码,便于加载、运行和微调。
Deita旨在为大型语言模型(LLM)的指令微调提供自动数据选择工具和高质量的对齐数据集,Deita模型能通过比其他SOTA LLM少10倍的指令微调数据进行训练,达到与它们相媲美的性能。
WizardLM是一个基于Code Llama微调的模型,专注于代码生成和相关任务,支持多种编程语言的代码编写与理解,提供模型的测试地址和下载链接,经过简单测试表现良好。
LMQL是一种专门为大型语言模型(LLMs)设计的查询语言,结合了自然语言提示和Python的表达能力。它提供了约束、调试、检索和控制流等功能,以便于与LLMs的交互。
一个完整的管道,用于在消费级硬件上使用LoRA和RLHF微调Vicuna LLM。该项目实现了基于Vicuna架构的RLHF(强化学习与人类反馈),基本上是ChatGPT的变种,但使用Vicuna。
Asian Bart是一个专为亚洲语言设计的BART模型,支持英语、汉语、韩语、日语等多种语言,适用于文本生成、翻译和摘要等多种自然语言处理任务,并提供预训练模型以便于研究和应用。
Anyscale是一个统一的计算平台,旨在利用Ray简化可扩展AI和Python应用的开发、部署和管理。用户可以轻松地开始使用Anyscale端点进行服务和微调开源大型语言模型(LLMs)。