LLaMA-O1 是一个大型推理模型框架,专为 PyTorch 和 HuggingFace 设计,支持训练、推理和评估。它集成了蒙特卡洛树搜索(MCTS)、自我对弈强化学习、PPO 和类似 AlphaGo Zero 的双策略范式,适用于大型语言模型的开发和应用。
AI2开源的OLMo语言模型核心构建模块,基于PyTorch实现,提供了完整的模型训练和优化组件,支持多种规模模型(1B-13B)训练,包含flash attention、float8训练等高级特性
MoveNet是一个基于深度学习的高效姿态检测模型,能够在PyTorch环境中实时估计人体姿态,支持多种输入格式,并能在多个设备上运行,包括移动设备。
LeRobot 是一个端到端的训练框架,专注于真实世界的机器人技术,通过 PyTorch 提供模型、数据集和工具,旨在降低机器人技术的准入门槛,使研究者和开发者能够更轻松地开发和测试机器人应用。
traiNNer是一个基于PyTorch的深度学习框架,旨在实现图像和视频的超分辨率、恢复以及图像到图像的翻译。它提供了灵活的模型结构,支持多种功能,适用于不同的图像处理需求。
OpenLLaMA是LLaMA模型的开源复现,基于RedPajama数据集进行训练,采用与LLaMA一致的预处理步骤、超参数设置、模型结构、上下文长度、训练步骤、学习率调度和优化器,旨在提供一个高效且可访问的语言模型。
TorchCP是一个基于PyTorch的Python工具箱,旨在支持深度学习模型的保形预测研究,提供多种分类和回归方法。
该项目是一个处理大规模航拍照片配准的算法,基于SURF特征、RANSAC算法和PyTorch autograd,能够高效地对历史航拍照片进行拼接和分析。
Modular Diffusion 是一个易于使用的模块化 API,旨在使用 PyTorch 设计和训练自定义扩散模型,适合多种应用场景,包括图像生成和去噪处理。
typical-sampling 是一个为 Jax、PyTorch 和 TensorFlow 打造的先进自然语言处理工具,支持典型采样算法,旨在优化模型训练和推理过程,提供易于集成的 API 以提升开发效率。
Epoching-Blog是一个集成了PyTorch、fastai和HuggingFace的自然语言处理实战教程,旨在帮助用户通过实践深入理解深度学习及其在NLP领域的应用。项目提供了丰富的代码示例和详细的教程,适合希望提升NLP技能的学习者。
这是一个包含多个基于PyTorch的深度学习应用的库,旨在为圣路易斯华盛顿大学课程提供教育资源和实例,帮助理解深度学习概念。
river-torch是一个基于PyTorch的Python库,专为在线深度学习而设计,支持实时数据的模型适应。它与River框架无缝集成,提供多种神经网络架构,并包含模型评估和性能监控工具。
基于ColossalAI的软件缓存方法来动态管理CPU和GPU内存空间中的极大嵌入表,能够在单个GPU上高效训练包括91.10 GB嵌入表的DLRM模型,仅需分配3.75 GB的CUDA内存,适用于大规模数据集。
Slideflow是一个用于组织学图像分析的深度学习流水线,支持Tensorflow/Keras和PyTorch。它提供了一个便捷的环境来构建和管理图像分析工作流程,具有良好的可扩展性,可以满足各种图像分析需求。
Collie是一个多功能的AI模型训练与部署框架,旨在简化机器学习模型的开发和管理过程。它基于PyTorch,结合了DeepSpeed和MegatronLM,避免使用复杂的外部库,并提供用户友好的接口和多种内置工具。
该项目提供了一个完整的管道,用于在消费级硬件上微调ChatGLM LLM,结合了LoRA(低秩适应)和RLHF(基于人类反馈的强化学习)技术,旨在提升ChatGLM的能力,使其类似于ChatGPT。
RunPod是一个全球分布的云平台,专门用于运行AI推理和训练。它提供GPU实例,支持流行的框架如TensorFlow和PyTorch,使得AI工作负载的处理变得简单便捷。用户可以通过注册账号并登录,部署基于容器的GPU实例,选择不同的GPU类型和区域以满足特定需求。RunPod还提供无服务器GPU计算、各种应用的AI端点以及增强隐私和安全性的安全云选项。