Awan LLM是一个云服务提供商,专注于大语言模型的推理,致力于提供高性价比和可靠性。与其他按token计费的服务不同,Awan LLM采取按月计费的方式,有效控制了用户的使用成本。通过在战略城市部署数据中心,Awan LLM能够为客户提供稳定且高效的服务。
GalLama是一个专注于本地agentic任务优化的LLM推理API服务后端,提供实验性特性和模型下载功能,能够支持多模型并发运行及负载均衡,旨在提升推理效率和灵活性。
深度求索发布的开源代码大模型,33B版的性能显着优于现有的开源代码LLM。该项目包含多个规模的代码语言模型,从10亿到330亿标记不等,经过预训练,使用16,000标记的窗口大小和额外的填空任务,支持项目级别的代码补全和填充,在多种编程语言和各种基准测试中取得最先进性能。
Xtreme1 是一个为多感官训练数据生成和处理而设计的平台,提供高效的数据标注和管理工具,支持深度学习模型的训练和评估,并且易于集成到现有的工作流程中。用户可以通过友好的界面和丰富的文档快速上手。
MetaGPT 是一个多智能体框架,能够扮演不同的角色,如工程师、产品经理、架构师和项目经理。它通过自动优化提示词、生成产品需求文档、设计文档、任务分配与管理、代码仓库生成等功能,协助用户完成复杂的任务。MetaGPT 还支持多角色协作,自动生成软件开发流程和标准操作程序(SOP),适用于各种项目管理和开发需求。
通过强化学习算法,自动玩Pokemon Red,并优化游戏策略,支持自定义训练和测试环境,同时提供数据可视化功能以分析训练结果。
Mini-LLaVA是一款轻量级的多模态大语言模型,能够处理图像、文本和视频输入,实现高效且灵活的多模态数据处理。其设计旨在简化多模态应用的开发,提供了简约的实现和灵活的接口,方便用户进行快速开发和实验。
Navan.ai是一个无代码平台,允许开发者和企业在几分钟内构建和部署计算机视觉AI模型,节省高达85%的开发时间和成本。用户可以通过nStudio快速构建模型,通过nCloud将模型部署到云端,并获得推理API。此外,用户还可以选择使用预训练的视觉AI模型,如人脸检测等。
AMD GPU推理引擎:基于 Docker 的 AMD GPU 推理引擎项目,旨在在 AMD GPU 上运行大型语言模型(LLMs),特别是 Hugging Face 的 LLaMA 模型家族。该项目提供了高效的推理性能,并支持容器化部署,方便用户进行模型的集成和使用。
LLM Prompt & Model Playground 是一个让用户可以并排测试两个LLM提示、模型或配置的工具。它支持多种输入的实时测试,极大地加快了提示和模型的测试过程,并且提供了慷慨的免费使用额度。该项目由Context.ai开发。
Logic-of-Thought(LoT)旨在通过将逻辑注入上下文,提升大型语言模型的推理能力。该项目利用命题逻辑生成扩展的逻辑信息,并与现有的提示方法无缝集成,显著提升了多种提示方法在复杂任务中的性能。
SuperCLUE是一个针对中文大模型的综合性基准测试平台,提供标准化的评估指标和多任务测试能力,旨在帮助研究者评估和比较中文大模型的性能。