一个汇集了可通过API访问的免费大型语言模型(LLM)推理资源的列表,方便开发者获取和使用各种大型语言模型的API。
MyoSuite是一个集合,包含使用MuJoCo物理引擎仿真的肌肉骨骼模型任务,并与OpenAI gym API兼容,适用于强化学习和机器学习研究。
TorchCodec是一个专为PyTorch设计的视频解码工具,提供简单快速的API,可以将视频帧解码为PyTorch张量,方便机器学习模型的处理。用户需自行安装FFMPEG以支持多种视频格式的解码。
Dolomite Engine是一款用于预训练和微调大型语言模型的超优化库,集成了多项关键创新,包括模型架构、微调方法和系统优化。它旨在提高大型语言模型的训练效率和效果,支持多种模型架构,优化微调过程,并提供系统性能的显著提升。
Agentless 是一款无需代理的自动化工具,采用两阶段和三阶段流程,能够有效定位、修复和验证代码问题,简化软件测试和维护,提高开发效率和可靠性。支持多种编程语言和框架,通过命令行和CI/CD集成实现自动化测试,生成详细报告以分析问题和修复结果。
一本专注于大语言模型实践应用的开源书籍,通过工具介绍和案例实践帮助快速上手大模型应用开发。
AG2(前身为AutoGen)是一个为智能体AI设计的编程框架,帮助多个智能体协作以解决问题。
LEAP是一个用于进化算法的通用库,专为Python开发,支持多种进化算法,易于扩展,提供可视化工具和良好的文档,以便用户能够轻松使用和定制。
Aurora项目提供了一种简单的方式来创建自己的Gpt3.5 API,用户只需经过几个简单的步骤即可实现服务,且该项目支持从镜像安装,旨在为用户提供便捷的AI服务体验。
一个简单的 Python 包,可以更轻松地在非公开或敏感数据以及没有互联网连接的计算机上运行大型语言模型 (LLM)。它支持本地环境,确保数据安全,适用于多种应用场景。
ChatLLM.cpp是一个纯C++实现的库,提供多个聊天模型的支持,能够在计算机的CPU上进行高效的实时聊天。该库经过量化优化,保证在资源有限的环境下也能流畅运行,并提供了命令行界面以便与模型进行交互,同时支持多种选项来定制聊天体验。
GPT-3 是一个具有 1750 亿参数的强大语言模型,展示了更大的模型在多种实际任务中表现更好的现象。它在自然语言处理领域具有显著的优势,能够理解和生成多种形式的文本。
一个魔改版的llama2.c,旨在利用1998年的计算机硬件(Intel Pentium II CPU + 128MB RAM)在Windows 98系统上运行大模型。
AI2开源的OLMo语言模型核心构建模块,基于PyTorch实现,提供了完整的模型训练和优化组件,支持多种规模模型(1B-13B)训练,包含flash attention、float8训练等高级特性
XiYan-SQL是一个针对自然语言转SQL任务的多生成器集成框架,旨在提高大型语言模型在生成SQL查询方面的性能。它通过整合多种生成器,优化文本到SQL的转换准确性,并兼容多种数据库,提供用户友好的接口,适用于各种场景。
一个针对crewAI代理的工具库,提供了丰富的预构建工具集合。包括文件操作、网页抓取、数据库交互、API集成和AI驱动工具等功能模块。
Lightpanda Browser是一款开源的无头浏览器,专为自动化任务设计,具有超低内存占用和超快执行速度,可助力AI Agent、数据抓取和测试等工作。它的内存占用极低,仅为Chrome的1/9,执行速度超快,比Chrome快11倍,并且兼容Playwright和Puppeteer,能够轻松集成现有的自动化工具。
o1推理链旨在利用Groq、OpenAI或Ollama等技术,创建类似o1的推理链,以提高大型语言模型(LLMs)的逻辑推理能力。该项目提供了创建和管理推理链的工具,具有优良的可扩展性和灵活性,适合多种应用场景。
收录了63个大语言模型(LLM)相关的面试问题及答案,针对2024年机器学习和数据科学面试提供系统化的准备资料。此项目涵盖了LLMs的基本原理、Transformer架构、注意力机制的详细讲解,以及预训练与微调的核心知识点,附带详细解答和代码示例,旨在帮助求职者全面掌握相关知识。
EasyContext 是一个用于内存优化和训练配方的项目,旨在将语言模型的上下文长度扩展到100万令牌,同时对硬件要求最小化。该项目提供了多种方法来提升模型性能,并兼容现有技术的实现,帮助开发者在资源有限的情况下有效地进行模型训练。
一个Python框架,用于构建基于LLM的应用,提供多智能体编程范式,智能体通过交换消息协同解决问题。
fastllm是一个可通过Docker或Modal Labs自托管的LLM服务集合,旨在支持应用开发。
是一种创新的元编程框架,将高效的人类工作流整合到基于的多智能体协作中。它将标准操作程序(SOPs)编码成提示序列,以实现更流畅的工作流程,使具有类似人类领域专业知识的代理能够验证结果并减少错误。
用Rust语言编写的GLiNER模型推理引擎,能高效地处理自然语言处理中的命名实体识别等任务,具有资源消耗低、性能高的特点,为相关领域的开发者提供了一个强大的工具
llama2.cpp 是一个高效的推理库,专为 C++ 开发,支持 CPU 计算,并且未来将支持 CUDA 和 AVX512,旨在提供高效的 Llama 2 模型推理体验,方便集成到各种 C++ 项目中。
LOMO是复旦大学提出的新论文,旨在使用单台8片24G的RTX 3090对Llama 65B模型进行全参数微调。该项目通过优化训练效率和性能,为用户提供了兼容多种深度学习框架的解决方案,并附带详细的实验结果和分析,帮助用户更好地理解模型的表现。
LLM-Dojo是一个开源大模型学习场,提供简洁易读的代码框架,支持多种主流模型的训练和强化学习技术,旨在帮助AI爱好者和研究者进行深入的研究和开发。
蚂蚁推出的一个开源代码大模型,能够根据开发者的输入,提供智能建议和实时支持,包括自动生成代码、添加注释、生成测试用例以及修复和优化代码等功能。
DuckRush 是一个基于 Hono 的简单快速的后端 API,可以通过关键词在互联网上搜索相关内容,并将其转换为适合 LLM 处理的格式。支持在 Cloudflare 上进行部署。
智元灵犀X1所使用的强化学习训练代码,可配合智元灵犀X1配套的推理软件进行真机和仿真的行走调试,或导入其他机器人模型进行训练。