AtomGPT是基于LLaMA的模型架构,通过从零开始训练,旨在展示模型的进化过程及学习能力的提升,帮助研究人员深入理解模型的学习过程。
该项目旨在记录和修正评估数据集中的错误,提供了报告个别样本问题和整个数据集问题的方法,帮助用户提高数据集的质量和可靠性。
旨在探索一种新的实验性模型训练流程,以训练高性能的特定任务模型,将训练过程的复杂性抽象化,使从想法到性能优越的完全训练模型的过程尽可能简单。用户只需输入任务描述,系统将从头开始生成数据集,将其解析为正确格式,并微调LLaMA 2模型。
PySpur是一个可视化大型语言模型推理路径的图形界面,旨在帮助开发者构建、测试和部署复杂的计算图,从而增强模型的思考能力。
HCP-Diffusion是一个基于diffusers的stable diffusion模型训练工具箱,旨在提供一个高效、灵活的环境来训练和微调多种stable diffusion模型,支持自定义数据集和模型参数,具有易于使用的API接口和高效的训练推理速度,适应不同用户的需求。
分享 GitHub 上一份开源免费的在线教程,涵盖了 PyTorch 基础知识、神经网络、计算机视觉、自定义数据集处理、模块化代码编写以及模型部署等内容。
LLM-Dojo是一个开源大模型学习场,提供简洁易读的代码框架,支持多种主流模型的训练和强化学习技术,旨在帮助AI爱好者和研究者进行深入的研究和开发。
Ludwig v0.8是一个开源的低代码框架,旨在帮助开发者轻松构建先进的机器学习模型,特别是优化用于使用私有数据构建定制的大型语言模型(LLM)。它提供了一种声明式接口,使得模型的构建过程更加高效和简便。
一个教育性的稀疏注意力机制实现库,专注于LLM推理的优化,提供多种注意力模式及其详细教程,旨在帮助用户理解和应用稀疏注意力技术。
一个Python库,可轻松跟踪和可视化LLM的提示和输出。用户可以识别有效的策略,高效解决问题,并确保可重复的工作流程。
Vicuna是一个由Vicuna团队开发的开源聊天机器人,经过用户分享的对话微调,表现优于大多数模型。
Neuralhub是一个先进的平台,旨在简化和增强深度学习和AI开发过程,适用于AI爱好者、研究人员和工程师。它提供了一个全面的环境,支持创建、实验和创新,致力于推动AI研究的民主化。
TorchCP是一个基于PyTorch的Python工具箱,旨在支持深度学习模型的保形预测研究,提供多种分类和回归方法。
用于快速拟合神经场(neural fields)到整个数据集的库,为下游任务提供代表性的表示