LangPort是一个开源的大型语言模型服务平台,旨在提供超快的LLM推理服务,支持Huggingface transformers及多种语言模型,具有易于扩展的特性。
Refact.ai推理服务器是一个自托管的服务,基于Docker镜像,提供高可扩展性和灵活性,支持多种机器学习模型,并提供RESTful API接口,方便用户进行模型推理和管理。
llama2.zig是一个用纯Zig编写的项目,旨在提供Llama 2模型的推理功能。它的设计强调高性能和易用性,所有功能都封装在一个文件中,方便用户直接运行或集成到其他Zig项目中。
Lamini是一个为企业软件开发提供支持的AI驱动的LLM平台,通过生成性AI和机器学习,帮助开发者自动化工作流,简化软件开发过程,提高生产力。
EricLLM是一个快速批处理API,旨在为各种大语言模型提供高效的服务,支持多种模型配置和资源管理,方便用户进行批量文本处理和集成到现有应用中。
LangDrive是一个库,用于直接从用户现有的Google Drive存储、访问和管理AI数据,确保无与伦比的隐私和控制力。它具备直接调用主要大型语言模型(LLM)的能力。
Agent-Inbox是一种新型的用户交互体验工具,旨在帮助用户更便捷地与Agent进行互动,提升工作效率。它通过提供直观的用户界面和实时反馈,简化了用户的操作流程,并支持多种类型的Agent,确保用户能够高效获取所需信息和服务。
该程序由GPT-4驱动,可以自主实现设定的任何目标,具备多轮对话能力并支持多种应用场景,能够根据用户需求定制任务,极大提升工作效率。
FastChat是一个基于Llama-2构建的对话生成项目,支持32k的上下文长度,旨在提供高效的对话生成能力,适用于多种应用场景。它是一个开源项目,易于自定义和扩展,适合开发聊天机器人和进行自然语言处理任务。
一个通过PyTorch从头开始训练Llama 2 LLM架构模型的项目,支持将权重保存到原始二进制文件并在简单的C文件中推断模型。
Chatmasters AI是一款经济实惠的人工智能助手,适用于企业和个人使用。它提供快速的服务、多语言支持和便捷的集成,能够降低成本并提升客户满意度。
Yachay AI是一个基于Byt5的地理标记模型,能够仅通过文本预测坐标。它为开发者提供了支持,以便构建和训练自己的模型,并在Github上提供相关资源和问答支持。
使用Ollama支持本地模型的微软GraphRAG知识图谱工具,实现成本效益和高效性
Navan.ai是一个无代码平台,允许开发者和企业在几分钟内构建和部署计算机视觉AI模型,节省高达85%的开发时间和成本。用户可以通过nStudio快速构建模型,通过nCloud将模型部署到云端,并获得推理API。此外,用户还可以选择使用预训练的视觉AI模型,如人脸检测等。
Similarix是一个轻量级的AI层,为S3桶添加语义搜索功能,增强了搜索、排序和管理数字资产的能力,而无需更改数据。它支持安全的只读访问,支持多语言,且易于集成。
Bunki 是一个高效的 C 协程库,旨在简化协程的管理与调度,特别适用于多线程环境和嵌入式系统。它提供了轻量级的框架,支持高效的上下文切换和灵活的调度机制,使开发者能够轻松创建和管理协程。
一种快速模仿学习工具,通过图扩散技术实现即时策略生成,帮助机器人快速学习新任务
Python版本的TensorFlow深度学习API