基于Qwen-0.5b模型的微调项目,采用GRPO强化学习方法优化数学推理能力,专为gsm8k数学数据集设计,生成结构化推理过程和答案,适用于教育研究场景。
SmolLM2是HuggingFace团队推出的轻量化AI模型系列,支持在资源有限的设备上运行,提供多个参数版本(135M、360M和1.7B),能够处理多种任务,特色是体积小、速度快,开发者友好,支持多种集成和部署方式。
TinyGPT是一个基于picoGPT项目,从零开始用C++11实现的GPT-2推理框架,旨在为嵌入式系统和资源受限环境提供高效的文本生成和自然语言处理功能。
Perpend是一个用户界面包装器,允许用户轻松地实验OpenAI的GPT模型,支持动态提示和自定义表单设计,特别是对GPT-4的支持。用户可以导入和导出提示,简化AI生成内容的设计和测试过程。
基于Andrej Karpathy的GPT-2实现和训练,添加大量注释以帮助理解模型原理,计划逐步增加更多功能。
这是复旦大学王一老师开源的一个高效GPT实现,经过2.5年的努力,旨在单个GPU上成熟且高度优化。
a1gpt是一个基于C++的GPT-2推理引擎,旨在提供高效的文本生成能力,支持多种输入格式并具备良好的可扩展性,使其便于集成到各种项目中。同时,a1gpt在内存管理方面进行了优化,以提升性能和效率。
WonderWorker是一个用于增强Slack工作区的工具,通过将GPT模型无缝集成,整个团队可以协作并利用GPT模型的强大功能。用户只需安装Slack应用并授权访问工作区,即可直接在Slack中使用GPT模型生成文本、回答问题和协助各种任务。
最小 PyTorch 实现的 GPT-2 和 Llama,旨在简化代码以便更容易理解和使用,并且能够在短时间内训练出性能良好的自然语言生成系统。
对当今大型语言模型 (LLM) 背后细节的低代码介绍,通过完全在 Excel 中实现的真实LLM了解 AI 的工作原理。
viz-gpt是一个可视化工具,旨在帮助用户理解和互动AI生成的内容,提供直观的方式来分析和评估GPT模型的输出。它支持实时反馈和多种数据源的集成,使用户能够根据不同的需求自定义设置。
Lightspeed是一个开源的CLI工具和Colab环境,旨在解决OpenAI GPT-4 API的常见问题,如API错误和响应缓慢,提供高达每秒133个tokens的处理速度,确保程序的稳定性和效率。
AAGPT是一个实验性开源应用,展示了大型语言模型(如GPT-3.5和GPT-4)的能力,适合研究和学习使用。它支持多种自然语言处理任务,便于社区的贡献与合作。
minGPT是用PyTorch重新实现的GPT,旨在变得小巧、干净、可解释和具有教育意义,适合学习和研究。
用纯C语言编写的GPT模型,旨在从零开始构建深度学习模型,教育开发者如何从底层构建复杂系统。该项目帮助开发者深入理解深度学习的基本原理,并提供了高效的内存管理和性能优化,从而让学习者能够在实践中掌握相关技术。
关于使用CommonGen-lite数据集对LLM进行评估的研究,使用了GPT-4模型进行评估,比较了不同模型的性能,并列出了排行榜上的模型结果。
min-LLM是一个轻量级的框架,旨在通过最小化代码来简化大语言模型(LLM)的训练过程。它提供了一个高效的训练流程,支持快速原型开发,并且易于集成和扩展,适合研究人员和开发者使用。
awesome-gpt4是一个精心整理的资源列表,包含与GPT-4相关的优秀资源、使用案例和演示,旨在帮助开发者和研究人员轻松获取最新信息和应用场景。