eigenGPT是一个基于C++的高效实现,旨在提供简化的GPT2架构,易于理解和扩展,适合嵌入式系统和资源受限环境。
基于PyTorch的GPT-2模型训练器,优化效率和代码简化,实现现代技术如旋转嵌入,以更少的token达到相同验证损失。该项目专注于提升模型训练的效率,使得用户能够在多种深度学习任务中更便捷地使用GPT-2架构。
Auto-GPT-ZH是中文版AutoGPT,旨在提供一个中文环境下的自动化GPT应用,支持多种API扩展,用户可以自定义任务和目标,具有高效的文本生成和对话能力,界面友好,适合各种中文场景的应用。
Jax GPT是对Karpathy的nanoGPT的重写,基于Jax和Flax框架构建,旨在提供高效的文本生成能力,支持快速训练和推理,具有易于扩展和修改的架构,能够充分利用高性能的并行计算。
将Andrej Karpathy的nanoGPT移植到Apple MLX框架,允许在苹果设备上训练OpenAI的GPT-2模型或自定义的GPT风格模型。该项目利用Apple MLX框架的优势,优化性能,简化模型训练流程,便于开发者在Apple生态中进行AI模型的开发和训练。
NanoGPT是一个开源的轻量级语言模型训练工具,专为语言模型爱好者打造,适合在普通电脑上进行GPT架构的训练和实验。它通过精简架构、优化梯度计算和内存管理,使得在普通硬件上也能高效训练语言模型。
LLM Explorer 是一个为机器学习研究人员、开发者和人工智能爱好者设计的平台,帮助用户了解最新的自然语言处理技术,集成到项目中,并保持在人工智能进步的前沿。
从自动微分开始完全从头开始GPT-2训练,一个快速且功能完备的深度学习库,使用Python和NumPy编写
基于GPT-2模型的中文文本生成项目,旨在为中文自然语言处理提供强大的文本生成能力,支持预训练和fine-tuning,适用于多种场景,如创作、对话等。
SymbiotAI致力于帮助人类和AI模型协作,共同创造一个更美好的世界。用户只需注册一个账户,即可开始与AI模型进行合作。
H2O LLM Studio是一个用户友好的图形界面工具,允许用户轻松微调大型语言模型(LLM),无需编程技能。
Fine-tune Phi-2是一个用于对Phi-2模型进行微调的项目,包含使用QLoRA技术进行微调、创建合成对话数据集以及支持多个GPU并行训练的功能。该项目提供了详细的示例代码和文档,允许用户灵活配置训练参数,以便优化模型的表现。
Efficient Large LM Trainer 是一款专为大规模语言模型设计的高效训练工具,旨在通过优化的算法和资源管理,提升训练速度并减少内存占用,支持多种硬件设备,便于用户集成和使用。
minGPT-flax是一个基于Flax/JAX的基本变换器实现,旨在支持序列到序列建模,适合初学者和研究人员使用。
AutoGPT.js 是一个可以在浏览器中运行的 Auto-GPT 项目,支持多种自然语言处理任务,提供用户友好的界面和实时交互体验。用户可以自定义设置和参数,以满足特定需求。
llama-jax是LLaMA的JAX实现,旨在利用Google Cloud TPU进行训练,提供高效、灵活的模型训练解决方案。
基于微博开源的Rill Flow项目,旨在搭建大模型应用的技术平台,支持多种大模型的集成与管理,提供用户友好的界面用于模型训练和推理,兼容多种数据源与格式,支持分布式计算以提高模型训练效率,并具有丰富的监控与日志功能。
Trudo AI是一个平台,允许用户在几分钟内构建、自动化和扩展复杂的Python工作流,无需DevOps知识。它提供了一个直观的用户界面,用户可以在此基础上微调OpenAI GPT3模型,构建复杂的AI应用。
字节跳动提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型