一个基于斯坦福的 Alpaca,并进行了中文优化的大语言模型项目,愿景是成为能够帮到每一个人的LLM Engine。
Supervised是一个平台,允许用户使用OpenAI的GPT引擎构建监督型大语言模型(LLMs)。它提供用户友好的界面,支持使用自定义数据来微调AI模型。用户还可以通过Supervised API部署、变现和集成他们的模型。
一个关于大语言模型(LLMs)的实用指南和食谱,旨在帮助用户更好地理解和使用这些模型。
Petals是一个开源工具,旨在通过团队协作运行大型语言模型。用户可以加载模型的一小部分,与其他人合作以提供模型的其他部分,从而实现推理或微调。
本项目提供与大型语言模型(如OpenAI的GPT-4)互动的技巧和窍门,帮助用户设计有效的提示,并优化模型的响应质量。
本项目基于Meta发布的可商用大模型Llama-2开发,开源了中文LLaMA-2基座模型和Alpaca-2指令精调大模型。这些模型在原版Llama-2的基础上扩充并优化了中文词表,使用了大规模中文数据进行增量预训练,进一步提升了中文基础语义和指令理解能力,相比一代相关模型获得了显著性能提升。相关模型支持4K上下文并可通过NTK方法最高扩展至18K+。
DataLang 是一个强大的工具,帮助用户连接数据源,通过 SQL 设置数据视图,配置 GPT 助手,创建自定义 ChatGPT,并与用户、员工或客户共享。它支持使用自然语言与数据库进行互动,为用户提供定制化的见解和交互。
Protocell是一家利用大型语言模型(LLMs)开发实用应用的公司,旨在创建模拟人类思维的AI接口。该平台提供多种产品,适用于个性化教育、法律分析、食谱推荐、症状分析和行程规划等领域。
1000gpt是一个平台,提供由个人创作的各种定制GPT模型。用户可以根据自己的需求找到合适的语言模型,充分释放人工智能的潜力。
中文Guanaco(原驼)大语言模型,支持QLora量化训练,可在本地CPU/GPU上高效部署,旨在优化大语言模型的效率,适用于低资源环境的训练和应用。
LLMPruner是一款专为大语言模型设计的裁剪工具,旨在优化模型性能并减少其参数量。它支持多种模型架构,并提供可视化工具,方便用户了解模型结构和裁剪效果,易于与现有机器学习工作流集成。
这是一个完整的管道,用于在消费硬件上使用LoRA和RLHF微调Alpaca LLM。基于Alpaca架构实现人类反馈的强化学习(RLHF),基本上是ChatGPT的一个变体,但使用的是Alpaca。
一个用于端到端架构和大语言模型(LLM)的项目,旨在简化和优化开发过程。
这是一个新的简单替代方案,基于计算输入激活的权重大小和范数之间的逐元素乘积。
So-vits-svc(也称Sovits)是一款基于VITS、soft-vc、VISinger2等技术的开源免费AI语音转换软件。它能够快速学习目标声音特征,实现高质量的语音克隆与变声,适用于多种场景如AI配音、虚拟主播、音乐翻唱等。
Llama 2 模型的优化版本,包含一系列解码器层,使用不同的投影大小和架构变化以提高效率。
WaveCoder是一个广泛且多才的项目,专注于增强指令调优和精炼数据生成,采用经过精心调优的代码语言模型和生成器-判别器框架,从开源代码中生成高质量、非重复的指令数据,显著提升大型语言模型在与代码相关任务中的表现和泛化能力。
中文Mixtral-8x7B,基于Mistral发布的模型Mixtral-8x7B进行了中文扩词表增量预训练,旨在提升中文文本生成和理解能力,支持多种自然语言处理任务。