nanotron是一个开源工具,旨在简化大型语言模型的训练过程,提供了一种高效的3D并行训练方法,从而更好地利用计算资源。
JupyterLab-TensorBoard-Pro是一个TensorBoard插件,为JupyterLab提供了更完善的功能。它能将TensorBoard整合到JupyterLab中,使用户能够更方便地在JupyterLab中使用TensorBoard。这是一个开源项目,用户可以自由使用。该插件专为机器学习任务设计,可以在JupyterLab中方便地进行机器学习相关的操作和监控。
Nebulgym是一款深度网络训练加速框架,用户只需增加几行代码即可显著提升AI模型的训练速度,且无需对现有训练设置进行修改。它支持多种深度学习框架,便于用户快速集成和使用。
一个完整的管道,用于在消费级硬件上使用LoRA和RLHF微调Vicuna LLM。该项目实现了基于Vicuna架构的RLHF(强化学习与人类反馈),基本上是ChatGPT的变种,但使用Vicuna。
这个开源项目是一个生成式AI模型优化赛的参赛方案,获得了天池NVIDIA TensorRT Hackathon 2023初赛的第三名。该项目的功能涉及到开源、机器学习等领域。
这是一个由Arcee AI开发的领域适应语言建模工具包,旨在通过适应性训练提高模型在特定领域的表现。它支持多种语言模型的微调,能够兼容多种数据格式,且易于集成和扩展。
FreeAiKit是由Prgmine提供的一套AI工具,旨在帮助用户完成各种与AI相关的任务,且免费提供。用户可以通过访问网站浏览工具,每个工具都有详细的描述和使用说明,用户可根据指南选择所需工具并应用于AI项目。
Magix 是一个用于训练大规模语言模型的轻量工具,具有灵活的数据和模型平行功能。它支持与 Hugging Face Transformers 的兼容性,能够高效处理数据,提供灵活的训练环境,适合研究人员和开发者使用。
OneFlow-ONNX v0.6.0是一个用于将ONNX模型转换为OneFlow格式的工具,提升了转换接口的易用性,并新增支持多种模型和算子。
该项目探讨了通过量化、剪枝和蒸馏等手段来降低改造和使用大语言模型(LLM)的成本。
OOTDiffusion是一个免费的项目,旨在为模特提供多种服装替换选项,具备高质量的图像生成能力,适合各种风格,用户界面友好,便于使用。
‘英特尔创新大师杯’深度学习挑战赛赛道3专注于中文自然语言处理中的地址相关性任务,提供了一种基于深度学习的高效解决方案,包含模型训练、评估及开源实现,旨在促进社区的使用与贡献。
Xorbits Inference(Xinference)是一个功能全面的分布式推理框架,支持大语言模型(LLM)、语音识别模型、多模态模型等各种模型的推理。它适用于研究者、开发者和数据科学家,支持一键部署自定义模型或内置开源模型,可在笔记本电脑、千节点集群及边缘设备上运行。
一个自定义 Hugging Face 节点的开源项目,用于 Google Visual Blocks for ML,允许用户在无代码图形编辑器中创建机器学习管道,支持多种机器学习功能并与Hugging Face Serverless API集成。
AutoNetGen 是一个自动化网络生成工具,旨在通过大模型与小模型的协同进化,帮助用户高效地设计和训练机器学习网络,支持多种网络架构,并提供友好的用户界面,极大简化了模型创建过程。
Inferflow是一个高效且高度可配置的大型语言模型(LLM)推理引擎,支持多种Transformer模型,用户无需编写源代码,只需通过简单修改配置文件即可进行服务,旨在提供高效的推理性能,适应不同需求。
这是一个完整的管道,用于在消费硬件上使用LoRA和RLHF微调Alpaca LLM。基于Alpaca架构实现人类反馈的强化学习(RLHF),基本上是ChatGPT的一个变体,但使用的是Alpaca。
由AI2开发的开源LLM评估系统,用于对基础模型和指令微调模型进行全面评估。