WaveCoder是一个广泛且多才的项目,专注于增强指令调优和精炼数据生成,采用经过精心调优的代码语言模型和生成器-判别器框架,从开源代码中生成高质量、非重复的指令数据,显著提升大型语言模型在与代码相关任务中的表现和泛化能力。
WizardLM是一个基于Code Llama微调的模型,专注于代码生成和相关任务,支持多种编程语言的代码编写与理解,提供模型的测试地址和下载链接,经过简单测试表现良好。
该项目是一个专注于大型语言模型(LLM)终身学习的资源库,收集了相关的精华综述、研究资源和论文,旨在促进LLM的持续学习能力和性能提升。
LMQL是一种专门为大型语言模型(LLMs)设计的查询语言,结合了自然语言提示和Python的表达能力。它提供了约束、调试、检索和控制流等功能,以便于与LLMs的交互。
midGPT是一个基于Jax和Equinox的大型语言模型分布式预训练框架,能够在云TPU切片上高效训练数十亿参数的GPT风格解码器模型,旨在提升语言模型的训练效率和性能。
Llama已然是最领先的开源大模型LLM,下载量接近3.5亿次,需求巨大,适用于各种自然语言处理任务。
LLaMA是Facebook研究开发的一款先进语言模型,旨在处理多种自然语言处理任务,声称在性能上优于GPT-3。它具备高质量文本生成能力,支持多种规模以满足不同的部署需求,同时采用高效的训练技术,能够先进地处理上下文信息。
FATE-LLM是基于FederatedAI开发的联邦学习框架,支持大语言模型的分布式训练,旨在促进AI技术在保护知识产权和隐私的前提下的应用。该项目通过联邦学习架构,使得多方在不共享原始数据的情况下,能够协同训练出高效的AI模型,有效应对数据隐私和合规性挑战。
GitGab通过将ChatGPT与您的代码相结合,使其能够实现功能、查找bug、编写文档和优化代码。用户只需注册账户,链接自己的Github仓库,即可开始与ChatGPT协作。
StackAI是一个综合平台,致力于为用户提供最新的AI技术。它提供了一系列精心挑选的AI工具,并定期更新新发布的AI。
旨在探索一种新的实验性模型训练流程,以训练高性能的特定任务模型,将训练过程的复杂性抽象化,使从想法到性能优越的完全训练模型的过程尽可能简单。用户只需输入任务描述,系统将从头开始生成数据集,将其解析为正确格式,并微调LLaMA 2模型。
中文Mixtral混合专家大模型,基于Mistral.ai发布的Mixtral模型,经过中文增量训练和指令精调,支持长文本处理与多种应用框架。
一个基于斯坦福的 Alpaca,并进行了中文优化的大语言模型项目,愿景是成为能够帮到每一个人的LLM Engine。
BiPE (Bilevel Positional Encoding) 旨在通过双层位置编码技术,提高模型在处理不同输入长度时的预测能力,尤其适用于序列建模任务。该项目通过增强位置编码的表达力,从而改善模型在长文本和变长输入上的性能。
Phaie AI是一个开源工具,旨在生成和修复设计系统。通过我们的Figma插件,用户可以在现有文件中工作,利用AI自动检测和更改颜色、排版、描边、边框半径等元素。