DeepSeek LLM是一款拥有670亿个参数的先进语言模型,通过庞大的包含2万亿标记的数据集在英语和中文上进行了从零开始的训练,旨在提供高质量的自然语言处理能力。
PatrickStar使得更大、更快、更环保的预训练模型在自然语言处理领域成为可能,推动AI的普及。
Baichuan-13B 是由百川智能继 Baichuan-7B 之后开发的包含 130 亿参数的开源可商用的大规模语言模型,在权威的中文和英文 benchmark 上均取得同尺寸最好的效果。
Anima是第一个开源的基于QLoRA的33B中文大语言模型,旨在支持大规模中文处理,促进社区参与与贡献,具备高效的模型训练与推理能力。
Haystack Cookbook是一个使用Haystack进行自然语言处理的示例集合,提供如何结合不同的模型提供者、向量数据库、检索技术等的指导。大多数示例展示特定小型演示,旨在帮助用户快速上手和扩展他们的NLP项目。
Qwen是阿里通义千问开源的多语言处理框架,支持多种自然语言处理任务,提供高效的模型推理和友好的用户接口。它兼容多种开发环境,旨在为开发者提供高效构建语言模型的工具,支持广泛的语言覆盖与任务适配,帮助解决全球化场景下的文本处理需求。最新的720亿参数版Qwen-72B和Qwen-72B-Chat在多个任务上超越LLaMA2-70B和GPT系列模型。
Nanbeige-16B(南北阁-16B)是南北阁大模型实验室研发的160亿参数规模的大语言模型,采用了2.5T Tokens进行预训练,数据包含大量互联网高质量语料、各类书籍、代码等领域脱敏文本,在各个权威测评数据集上都取得了不错的效果。本次发布包含有 Base、Chat 以及扩展上下文长度的 Base-32k、Chat-32k 版本。
ERNIE是百度开发的自然语言处理框架,旨在通过持续学习和预训练技术提升语言理解与生成能力。它支持多种自然语言处理任务,包括文本分类、问答系统、文本生成等,并在多种任务中实现了最先进的性能。ERNIE基于Transformer架构,具备高效的模型优化和训练策略,支持多语言处理,适用于中文及其他语言的自然语言处理任务。
Qdrant向量搜索引擎示例和教程集合,提供了一系列使用Qdrant和相关技术的教程、演示和使用指南。
基于预训练语言模型的零样本和少样本NLP的教程,提供了一系列的示例和实用工具,用于帮助研究人员和工程师理解和应用这些技术。
Graph4NLP是一个库,旨在简化图神经网络在自然语言处理中的应用,支持多种任务和模型的灵活使用。
TaiChi是一个开源库,专注于少样本学习,可以支持多种自然语言处理任务,具有灵活的API设计和强大的可扩展性,适合研究者和开发者使用。
AI123是一个人工智能聊天机器人,可以帮助用户撰写故事和回答各种问题。用户只需访问网站,与聊天机器人开始对话,输入问题或进行自然对话即可。
Pocket LLM是一个平台,旨在使复杂的大语言模型和其他先进的人工智能技术对所有人都可访问。它提供定制化、私密的人工智能解决方案,这些解决方案在普通硬件上训练,具有超低延迟推理,消除了对GPU、TPU或定制ASIC的需求。用户可以在没有高级配置或GPU的情况下,仅使用CPU构建和部署数十亿参数的模型。
Boogie是一个平台,允许用户使用大型语言模型(如GPT-4)测试、部署和管理自然语言处理应用程序,帮助开发者高效构建强大的NLP应用。
TextSynth 提供对大型语言模型和文本到图像模型的访问,如 Llama2、Falcon、GPT-J、GPT-NeoX 等,用户可以通过 REST API 或者友好的操作界面进行文本补全、问答、分类、聊天、翻译和图像生成等多种任务。
通义千问-7B是阿里云研发的通义千问大模型系列的70亿参数规模的模型,基于Transformer的大语言模型,经过超大规模的预训练数据训练,覆盖广泛,包括网络文本、专业书籍、代码等。
StableLM是Stability AI最新开源的大语言模型,目前开放的是3B和7B的版本,后续会开放更大规模的模型,适合商用。
LLaMA是Facebook研究开发的一款先进语言模型,旨在处理多种自然语言处理任务,声称在性能上优于GPT-3。它具备高质量文本生成能力,支持多种规模以满足不同的部署需求,同时采用高效的训练技术,能够先进地处理上下文信息。