ERNIE是百度开发的自然语言处理框架,旨在通过持续学习和预训练技术提升语言理解与生成能力。它支持多种自然语言处理任务,包括文本分类、问答系统、文本生成等,并在多种任务中实现了最先进的性能。ERNIE基于Transformer架构,具备高效的模型优化和训练策略,支持多语言处理,适用于中文及其他语言的自然语言处理任务。
哔哩哔哩自研大语言模型,提供多样化的对话和角色扮演功能,支持多种评测基准,具有领先的性能表现
nanoRWKV是RWKV语言模型的轻量级实现,专为快速实验与多种语言处理任务设计,兼容RWKV架构,基于nanoGPT优化了性能和效率,易于扩展和自定义。
FastChat是一个基于Llama-2构建的对话生成项目,支持32k的上下文长度,旨在提供高效的对话生成能力,适用于多种应用场景。它是一个开源项目,易于自定义和扩展,适合开发聊天机器人和进行自然语言处理任务。
ChatGLM-6B是清华大学开发的一个开源双语对话语言模型,基于General Language Model (GLM)架构,具有62亿参数。它支持中英双语对话,并具备图像理解的多模态功能。模型经过约1T标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术,旨在提供高质量的对话生成和自然语言处理能力。结合模型量化技术,可在消费级显卡上本地部署(INT4量化级别下最低只需6GB显存),并针对中文问答和对话进行了优化。
LightGPT是由AWS贡献者开发的语言模型,基于GPT-J 6B,经过OIG-small-chip2指令数据集的微调,旨在生成符合特定指令的文本。该模型支持在Amazon SageMaker上部署,并提供了示例代码。
基于 LLaMA-7B 经过中文数据集增量预训练,旨在提升中文自然语言处理能力。
收录各种各样的指令数据集,用于训练 ChatLLM 模型,支持多种自然语言处理任务。
WonderWorker是一个用于增强Slack工作区的工具,通过将GPT模型无缝集成,整个团队可以协作并利用GPT模型的强大功能。用户只需安装Slack应用并授权访问工作区,即可直接在Slack中使用GPT模型生成文本、回答问题和协助各种任务。
基于预训练语言模型的零样本和少样本NLP的教程,提供了一系列的示例和实用工具,用于帮助研究人员和工程师理解和应用这些技术。
Zgi.ai致力于简化大型语言模型(LLM)应用的构建过程,为开发者和企业提供必要的工具和资源,帮助他们将梦想转化为现实,打破技术限制,实现前所未有的可能性。
开源中英双语对话模型 ChatGLM-6B 的第二代版本,拥有更强大的性能、更长的上下文、更高效的推理和更开放的协议。
手把手带你实战 Huggingface Transformers 课程视频和资料,帮助学习者掌握自然语言处理技术。
DataLab是一个统一平台,允许NLP研究人员以高效且易用的方式执行多种与数据相关的任务,提供数据诊断、操作标准化、数据搜索和全局分析等功能。
OpenChat是一个基于LLaMA架构的开源大语言模型,通过6K GPT-4对话数据进行微调,旨在在推理效率和表现力上达到与ChatGPT相当的水平。它利用自然语言对话数据和强化学习方法,在混杂质量数据下进行训练,克服了labels标注难题,是开源领域内表现最出色的模型之一。
这个开源项目的目的是模拟 openai api 并将其移植到手机端,使得用户可以更方便地利用该功能,实现物尽其用的效果。
Anima是第一个开源的基于QLoRA的33B中文大语言模型,旨在支持大规模中文处理,促进社区参与与贡献,具备高效的模型训练与推理能力。
LLaMa2Lang是一个用于微调LLaMa2-7b模型的工具,旨在提升其在非英语语言中的对话能力。由于LLaMa2模型主要基于英语数据进行训练,因此在其他语言上的表现较差。本项目旨在改善这一问题,使LLaMa2能够更好地处理各种语言的对话需求。
字节跳动提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型