llama-node是一个基于Node.js的项目,旨在提供对LLaMA和Alpaca语言模型的支持。该项目允许用户在本地CPU上高效运行这些模型,适合个人计算机使用。它基于llama-rs构建,旨在促进AI技术的民主化,使更多开发者能够轻松访问和使用大语言模型。
mlc-llm 使每个人都能在每个人的设备上本地开发、优化和部署 AI 模型,支持多种 AI 模型架构,并提供模型优化工具和简化的部署过程。
Web LLM 是一个可以在浏览器中直接运行大型语言模型的工具,支持通过 WebGPU 加速。它支持多种大型语言模型,包括 Llama 2 7B/13B、Mistral 7B 和 WizadMath,并能够在设备内存为 64GB 的情况下运行 Llama 2 70B 模型。利用 WebGPU 提供更快、更流畅的模型运行体验,仅需约 6GB 的显存即可运行 Llama 7B 和 Vicuna-7B。
API for Open LLMs 是一个为开源大语言模型提供统一后端接口的项目,支持多种开源大模型的调用,旨在简化与大语言模型的交互体验。通过提供类似于 OpenAI 的 API 使用方式,开发者能够更方便地集成和利用大语言模型的能力。
基于 MLX 框架的 Silicon LLM 训练和推理工具包,简化了在 Apple Silicon 上训练和运行大语言模型的过程,旨在为开发者提供高效、易用的工具,以应对资源有限的设备上的大语言模型需求。
Airtrain.ai LLM Playground是一个无代码的平台,可以同时对多种开源和专有LLM(如Claude、Gemini、Mistral AI、OpenAI模型、Llama 2、Phi-2等)进行质量、性能和成本的检查与比较。该平台旨在为用户提供简便的工具,以便在选择合适的语言模型时做出明智的决策。
Boss Copilot是一个基于AI的应用,作为您的助手,帮助创建大型语言模型应用。它使用多个代理相互协作,处理各种任务。用户只需安装Chrome扩展并启用即可,激活后可以提示AI代理执行工作流程、任务和代码,同时可以与ChatGPT沟通,利用GPT4的强大功能来完成项目。
一个简单的 Python 包,可以更轻松地在非公开或敏感数据以及没有互联网连接的计算机上运行大型语言模型 (LLM)。它支持本地环境,确保数据安全,适用于多种应用场景。
智能优化版Llama.cpp:基于原版Llama.cpp的克隆项目,它增加了最先进的量化技术,并针对CPU性能进行了改进,使得在处理大型语言模型时更加高效
Aquila语言大模型是在中英文高质量语料基础上从0开始训练的开源语言模型,具备更高效的训练效率和优秀的性能。
gigaGPT是一个用于训练具有数百亿参数的大型语言模型的代码库,仅有500多行代码。它受到Andrej Karpathy的nanoGPT启发,但专为Cerebras硬件优化,能够扩展到GPT-3规模的模型。gigaGPT旨在提供一个干净、高效和可用的代码库,而不是追求训练最先进的模型。
LLMPlus是一个Python包,旨在帮助开发者使用本地的大型语言模型(LLMs)来构建AI应用。它提供了简洁的接口,以便进行提示工程,支持加载LLM模型、嵌入模型和向量数据库的类。通过自定义提示工程和RAG技术,开发者可以轻松创建LLM应用。
Hallucination Leaderboard是一个用于评估大语言模型在生成摘要时的幻觉表现的排行榜,旨在提高对模型输出质量的理解和评估方法的透明度。该项目总结了多个知名语言模型在对短文进行摘要时的幻觉产生频率,目前显示GPT-4和GPT-3.5表现最佳。
LangSmith是一个旨在帮助开发者缩小原型与生产之间差距的平台,专为构建和迭代能够利用大型语言模型(LLMs)的产品而设计,既能发挥其强大能力,又能应对其复杂性。
Public Prompts是一个由黎巴嫩一位热衷于技术与人工智能的初级医学医生创建的网站,旨在提供由CompVis和Stability AI团队开发的公共工具、知识、模型和提示。该网站支持Stable Diffusion技术,提供各种创意用途的提示、模型和嵌入的集合。用户可以浏览网站,根据可用的提示、模型或嵌入进行选择,探索不同类别,获取所需的创意资源。对于高级用户,网站还提供在本地运行AI和自行训练模型的资源。
Toolhouse是一个云基础设施平台,旨在为大型语言模型(LLMs)提供动作和知识,简化函数调用过程,仅需三行代码即可实现。
用Rust语言开发的语言模型管控框架,其设计目标是提供一个简单易用且易扩展的管控框架,帮助开发者创建语言模型管控应用。
清华大学构建的开源、大规模、高质量的指令调优数据项目,旨在帮助开发者构建具备通用工具使用能力的大型语言模型。