用Go语言编写的云原生AI网关,作为OpenAI的代理服务,可以创建具有速率限制、费用限制和生存时间限制的API密钥,实现细粒度的访问控制,支持多个大型语言模型,并简化LLM(Large Language Model)的运维操作。
Dynamiq是一个专为Agentic AI和大型语言模型应用设计的AI智能协同框架,旨在简化AI应用的开发过程,擅长协调检索增强型生成与大型语言模型代理,同时支持多种AI技术的集成,提供高效的任务调度和资源管理。
基于 MLX 框架的 Silicon LLM 训练和推理工具包,简化了在 Apple Silicon 上训练和运行大语言模型的过程,旨在为开发者提供高效、易用的工具,以应对资源有限的设备上的大语言模型需求。
CSGHub是一个开源的、可信的大模型资产管理平台,旨在帮助用户管理与大型语言模型及其应用(如数据集、模型文件、代码等)生命周期相关的资产。
关于如何有效蒸馏大型语言模型的最佳实践实用指南,提供了一系列的最佳实践,帮助工程师和机器学习从业者在生产应用中更高效地蒸馏和使用语言模型。
一个用于端到端架构和大语言模型(LLM)的项目,旨在简化和优化开发过程。
Taylor AI 是一个高效的工具,旨在帮助用户在几分钟内微调开源大语言模型(如Llama2、Falcon等)。它让用户专注于实验和构建更好的模型,而不用花时间在繁琐的Python库上或跟进每一个开源LLM的更新。同时,用户拥有自己的模型,提升了数据安全性和控制权。
一个开源工具包,用于预训练、微调和部署大型语言模型(LLMs)和多模态大语言模型。该工具包基于LLaMA-Adapter,提供更高级的功能,支持社区贡献与扩展。
这是一个新的简单替代方案,基于计算输入激活的权重大小和范数之间的逐元素乘积。
LLM Hosting Container 是一个用于部署和托管大型语言模型的解决方案,具备与AWS服务的无缝集成,提供易于使用的API接口,并支持自动扩展和负载均衡,优化性能以满足高并发需求。
是一种通过减少内存带宽需求来增强语言大模型效率的技术。它无需对预训练或微调进行更改,可以显著减少注意力内存需求,而不会影响准确性。
LLMonitor是一个开源的监控与评估工具,专为AI开发者设计,旨在通过日志查询和分析提升应用的质量。它为基于大型语言模型的应用提供可观察性和日志记录功能,帮助开发者优化和调试复杂的AI代理和聊天机器人。
StackAI是一个综合平台,致力于为用户提供最新的AI技术。它提供了一系列精心挑选的AI工具,并定期更新新发布的AI。
Ollama是一个能创建、运行和共享自包含大型语言模型(LLM)的工具,将模型的权重、配置、提示等打包成自包含的文件,可以在任何地方运行。
Token.js是一个集成了200多个大型语言模型(LLM)的TypeScript SDK,采用OpenAI格式,支持在客户端运行,无需代理服务器,且为免费开源项目,得到了社区的广泛支持。
FasterTransformer是一个旨在提高Transformer模型速度和效率的工具,支持多种架构如BERT和GPT,提供高性能的推理和训练,且易于集成。它支持FP16和INT8量化技术,能够在NVIDIA GPU上实现高效的模型推理和快速训练,适合在生产环境中部署优化后的模型。
一个简单易懂的AI代理示例项目,展示了如何通过模型上下文协议(MCP)连接开源大语言模型(如Llama 3、OpenAI或Google Gemini)和SQLite数据库,帮助开发者快速上手AI代理开发。