Embedditor 是一款先进的 AI 工具,旨在通过嵌入优化提升向量搜索的能力,类似于嵌入领域的 Microsoft Word。该工具为专业人士和开发者量身定制,提供强大的元数据和令牌增强功能,帮助用户提升大型语言模型(LLM)应用的效率和准确性。
Lagent是一个专为轻量AI代理设计的开源框架,旨在为开发者提供高效构建智能代理的工具。它通过简化的架构支持快速开发与部署,特别适用于资源受限场景。Lagent支持用户快速地将一个大语言模型转变为多种类型的智能体,并提供了一些典型工具为大语言模型赋能。
Boss Copilot是一个基于AI的应用,作为您的助手,帮助创建大型语言模型应用。它使用多个代理相互协作,处理各种任务。用户只需安装Chrome扩展并启用即可,激活后可以提示AI代理执行工作流程、任务和代码,同时可以与ChatGPT沟通,利用GPT4的强大功能来完成项目。
Aquila语言大模型是在中英文高质量语料基础上从0开始训练的开源语言模型,具备更高效的训练效率和优秀的性能。
LLMPlus是一个Python包,旨在帮助开发者使用本地的大型语言模型(LLMs)来构建AI应用。它提供了简洁的接口,以便进行提示工程,支持加载LLM模型、嵌入模型和向量数据库的类。通过自定义提示工程和RAG技术,开发者可以轻松创建LLM应用。
llama-node是一个基于Node.js的项目,旨在提供对LLaMA和Alpaca语言模型的支持。该项目允许用户在本地CPU上高效运行这些模型,适合个人计算机使用。它基于llama-rs构建,旨在促进AI技术的民主化,使更多开发者能够轻松访问和使用大语言模型。
基于 MLX 框架的 Silicon LLM 训练和推理工具包,简化了在 Apple Silicon 上训练和运行大语言模型的过程,旨在为开发者提供高效、易用的工具,以应对资源有限的设备上的大语言模型需求。
StackAI是一个综合平台,致力于为用户提供最新的AI技术。它提供了一系列精心挑选的AI工具,并定期更新新发布的AI。
parea.ai 是一个专为调试和监控大型语言模型(LLM)应用而设计的开发者工具包。用户可以通过该平台轻松管理LLM工作流程,评估和比较不同的提示,监控应用程序的性能,并进行版本控制和迭代。
Langfuse是一个旨在帮助开发者构建和管理AI应用程序的基础设施平台,提供了丰富的功能和工具,以简化AI模型的集成和部署。其目标是让AI开发变得更简单、高效,并降低技术门槛。
LLM4SE是一个专为软件工程设计的大型语言模型,能够理解和生成多种编程语言的代码,自动化代码审查与重构,智能化错误检测与调试,并能自动生成项目文档。同时,LLM4SE可以与多种开发工具和环境集成,提升开发效率。
MobileCPM是一个旨在帮助开发者将大型语言模型无缝集成到移动应用中的工具集,能够实现多种用例的本地模型能力,支持在移动设备上运行并提供多种功能,简化了开发者的集成过程。
GradientJ旨在使NLP应用更易获取,提供创建、微调和管理NLP应用的综合解决方案,充分利用大语言模型的能力。
LLM GPU Helper 旨在通过智能GPU分配和用户友好的界面,简化大语言模型的部署和性能管理,适用于数据科学家、AI研究人员和开发者。它提供了一系列先进功能,帮助用户高效且经济地利用强大的GPU基础设施。
EasyEdit 是一个用于编辑大型语言模型的 Python 框架,支持多种模型如 GPT-J、Llama、GPT-NEO、GPT2、T5 等。其目标是在特定领域或知识上高效地修改语言模型的行为,而不会对其他输入的性能产生负面影响。该框架易于使用且易于扩展,适合用于研究和开发语言模型。
深言科技联合清华大学NLP实验室开源的语鲸-8B模型,其能力大致介于ChatGLM2和3之间。该模型支持多种自然语言处理任务,适用于各种应用场景。
Deita旨在为大型语言模型(LLM)的指令微调提供自动数据选择工具和高质量的对齐数据集,Deita模型能通过比其他SOTA LLM少10倍的指令微调数据进行训练,达到与它们相媲美的性能。
清华大学构建的开源、大规模、高质量的指令调优数据项目,旨在帮助开发者构建具备通用工具使用能力的大型语言模型。