ChatGLM.cpp是ChatGLM-6B的C++实现版,专为在macBook等设备上运行而设计。它通过C++实现优化了性能和资源使用,使其能够在资源受限的环境中高效运行,同时保持与ChatGLM-6B模型的兼容性。
VMEC++是一个用C++从头实现的、对Python友好的变分矩平衡代码(VMEC)重新实现。它是一个用于恒星器和托卡马克的自由边界理想磁流体力学(MHD)平衡求解器。
qwen.cpp是基于C++的Qwen-LM实现,旨在为用户提供高效、实时的聊天体验,支持跨平台使用,便于集成与自定义。
LLaVA C++ Server 是一个用于LLaVA模型的高效推理的API服务器,旨在提供简单易用的接口,兼容多种平台与环境,支持模型的动态加载与卸载,并优化内存管理和性能。
eigenGPT是一个基于C++的高效实现,旨在提供简化的GPT2架构,易于理解和扩展,适合嵌入式系统和资源受限环境。
基于PyTorch的GPT-2模型训练器,优化效率和代码简化,实现现代技术如旋转嵌入,以更少的token达到相同验证损失。该项目专注于提升模型训练的效率,使得用户能够在多种深度学习任务中更便捷地使用GPT-2架构。
Auto-GPT-ZH是中文版AutoGPT,旨在提供一个中文环境下的自动化GPT应用,支持多种API扩展,用户可以自定义任务和目标,具有高效的文本生成和对话能力,界面友好,适合各种中文场景的应用。
Jax GPT是对Karpathy的nanoGPT的重写,基于Jax和Flax框架构建,旨在提供高效的文本生成能力,支持快速训练和推理,具有易于扩展和修改的架构,能够充分利用高性能的并行计算。
将Andrej Karpathy的nanoGPT移植到Apple MLX框架,允许在苹果设备上训练OpenAI的GPT-2模型或自定义的GPT风格模型。该项目利用Apple MLX框架的优势,优化性能,简化模型训练流程,便于开发者在Apple生态中进行AI模型的开发和训练。
NanoGPT是一个开源的轻量级语言模型训练工具,专为语言模型爱好者打造,适合在普通电脑上进行GPT架构的训练和实验。它通过精简架构、优化梯度计算和内存管理,使得在普通硬件上也能高效训练语言模型。
LLM Explorer 是一个为机器学习研究人员、开发者和人工智能爱好者设计的平台,帮助用户了解最新的自然语言处理技术,集成到项目中,并保持在人工智能进步的前沿。
从自动微分开始完全从头开始GPT-2训练,一个快速且功能完备的深度学习库,使用Python和NumPy编写
基于GPT-2模型的中文文本生成项目,旨在为中文自然语言处理提供强大的文本生成能力,支持预训练和fine-tuning,适用于多种场景,如创作、对话等。
SymbiotAI致力于帮助人类和AI模型协作,共同创造一个更美好的世界。用户只需注册一个账户,即可开始与AI模型进行合作。
H2O LLM Studio是一个用户友好的图形界面工具,允许用户轻松微调大型语言模型(LLM),无需编程技能。
Fine-tune Phi-2是一个用于对Phi-2模型进行微调的项目,包含使用QLoRA技术进行微调、创建合成对话数据集以及支持多个GPU并行训练的功能。该项目提供了详细的示例代码和文档,允许用户灵活配置训练参数,以便优化模型的表现。
Efficient Large LM Trainer 是一款专为大规模语言模型设计的高效训练工具,旨在通过优化的算法和资源管理,提升训练速度并减少内存占用,支持多种硬件设备,便于用户集成和使用。
minGPT-flax是一个基于Flax/JAX的基本变换器实现,旨在支持序列到序列建模,适合初学者和研究人员使用。