一个用于端到端架构和大语言模型(LLM)的项目,旨在简化和优化开发过程。
基于 MLX 框架的 Silicon LLM 训练和推理工具包,简化了在 Apple Silicon 上训练和运行大语言模型的过程,旨在为开发者提供高效、易用的工具,以应对资源有限的设备上的大语言模型需求。
Dynamiq是一个专为Agentic AI和大型语言模型应用设计的AI智能协同框架,旨在简化AI应用的开发过程,擅长协调检索增强型生成与大型语言模型代理,同时支持多种AI技术的集成,提供高效的任务调度和资源管理。
dstack是一个开源工具,可以在任何云环境中简化大型语言模型(LLM)的开发。它使开发者能够利用开放的LLM,降低云成本,避免对供应商的锁定。
用Go语言编写的云原生AI网关,作为OpenAI的代理服务,可以创建具有速率限制、费用限制和生存时间限制的API密钥,实现细粒度的访问控制,支持多个大型语言模型,并简化LLM(Large Language Model)的运维操作。
Deita旨在为大型语言模型(LLM)的指令微调提供自动数据选择工具和高质量的对齐数据集,Deita模型能通过比其他SOTA LLM少10倍的指令微调数据进行训练,达到与它们相媲美的性能。
专为大型语言模型(LLM)训练优化的类,集成了多种高效训练技术,旨在提升训练效率和内存使用效率。
Cursive是一个直观的Python大型语言模型(LLM)框架,旨在简化与LLM的交互,支持多种模型和任务,提供高效的数据处理能力和灵活的API设计,适用于各种应用场景。
LangSmith是一个旨在帮助开发者缩小原型与生产之间差距的平台,专为构建和迭代能够利用大型语言模型(LLMs)的产品而设计,既能发挥其强大能力,又能应对其复杂性。
Prompt Flow 是微软推出的开发工具套件,旨在简化基于大语言模型(LLM)的 AI 应用程序的端到端开发周期,支持从构思、原型设计、测试、评估到生产部署和监控的全流程。它提供创建和管理可执行工作流的功能,支持与多种工具和框架的集成,并可轻松部署到云服务或本地环境。
llama-node是一个基于Node.js的项目,旨在提供对LLaMA和Alpaca语言模型的支持。该项目允许用户在本地CPU上高效运行这些模型,适合个人计算机使用。它基于llama-rs构建,旨在促进AI技术的民主化,使更多开发者能够轻松访问和使用大语言模型。
LangChain是一个用于构建基于大型语言模型(LLM)应用的框架,它简化了复杂任务的实现,并支持多种集成和扩展。
FLASK是一个专注于基于技能集的细粒度评估工具,能够对大语言模型(LLM)进行全面分析和比较。它提供了评估模型在不同能力上的表现,并与最先进的开源LLM进行对比,帮助用户了解模型的优势和不足。
Toolhouse是一个云基础设施平台,旨在为大型语言模型(LLMs)提供动作和知识,简化函数调用过程,仅需三行代码即可实现。
Inductor是一个开发工具,用于评估、确保和提升大型语言模型(LLM)应用的质量,适用于开发阶段和生产环境。
Taylor AI 是一个高效的工具,旨在帮助用户在几分钟内微调开源大语言模型(如Llama2、Falcon等)。它让用户专注于实验和构建更好的模型,而不用花时间在繁琐的Python库上或跟进每一个开源LLM的更新。同时,用户拥有自己的模型,提升了数据安全性和控制权。
aisuite是吴恩达开源的Python库,旨在提供一个统一接口,让开发者可以轻松使用来自多个提供商的大型语言模型。支持OpenAI、Anthropic、Azure、Google等主流AI服务,使用类似OpenAI的接口设计,使得开发者能够无缝切换不同的LLM提供商进行测试和对比,无需修改代码。
OpenAI兼容的API,用于TensorRT LLM triton backend,提供了与langchain集成的功能,支持高效推理和灵活后端配置。