nanoRWKV是RWKV语言模型的轻量级实现,专为快速实验与多种语言处理任务设计,兼容RWKV架构,基于nanoGPT优化了性能和效率,易于扩展和自定义。
Jax GPT是对Karpathy的nanoGPT的重写,基于Jax和Flax框架构建,旨在提供高效的文本生成能力,支持快速训练和推理,具有易于扩展和修改的架构,能够充分利用高性能的并行计算。
百川智能推出的新一代开源大语言模型,采用 2.6 万亿 Tokens 的高质量语料训练。在多个权威的中文、英文和多语言的通用、领域 benchmark 上取得同尺寸最佳的效果。
一个简单易懂的AI代理示例项目,展示了如何通过模型上下文协议(MCP)连接开源大语言模型(如Llama 3、OpenAI或Google Gemini)和SQLite数据库,帮助开发者快速上手AI代理开发。
TinyChatEngine是一个专为边缘计算设计的设备端大型语言模型推断库,可以在笔记本电脑、车载娱乐系统、机器人或飞船上运行,提供代码助手、办公应用和智能回复等服务,具有高效的推断性能和可扩展的架构。
大型语言模型显著推动了自然语言处理领域的发展,引发了人们对利用其潜力处理各种自然、社会和应用科学领域中特定任务的极大兴趣。
LLM Zoo收集了各种开源和闭源语言模型的信息,包括发行时间、模型大小、支持的语言、领域、训练数据以及相关资源链接。旨在为自然语言处理(NLP)领域的研究人员提供参考,以帮助其选择适合其需求的模型。
哔哩哔哩自研大语言模型,提供多样化的对话和角色扮演功能,支持多种评测基准,具有领先的性能表现
imodelsX是一个专注于自然语言处理的可解释性模型,利用大型语言模型为数据集提供自然语言解释,增强NLP任务的透明度,并支持多种提示和模型选择。
实时、精细的大型语言模型合成数据资源列表,专注于为大型语言模型(LLM)提供数据支持,包括数据生成、优化和应用。
Kansformers是一个基于知识增强网络(KANs)的Transformer架构,旨在提高自然语言处理任务的性能。它提供多种预训练模型,支持针对特定任务的微调,并具备高效的模型推理能力和灵活的API设计,适合多种应用场景。
typical-sampling 是一个为 Jax、PyTorch 和 TensorFlow 打造的先进自然语言处理工具,支持典型采样算法,旨在优化模型训练和推理过程,提供易于集成的 API 以提升开发效率。
nlp-notebook 实现了 NLP 领域常见任务,包括新词发现、基于 PyTorch 的词向量、中文文本分类、实体识别、摘要文本生成、句子相似度判断等功能,旨在为用户提供便捷的自然语言处理解决方案。
SmolLM2是HuggingFace团队推出的轻量化AI模型系列,支持在资源有限的设备上运行,提供多个参数版本(135M、360M和1.7B),能够处理多种任务,特色是体积小、速度快,开发者友好,支持多种集成和部署方式。
Phoenix是一个notebook-first的Python库,利用嵌入技术发现LLM、计算机视觉(CV)、自然语言处理(NLP)和表格模型中的潜在现象和问题。它支持多种模型的可观察性,提供洞察发现工具,帮助识别和解决模型问题,并集成监控功能以实时跟踪模型性能,同时支持模型的微调和优化。
该项目旨在展示如何在中文环境中使用Transformers库进行自然语言处理(NLP)任务,提供了丰富的示例和详细的文档,以帮助用户理解和应用相关技术。
Asian Bart是一个专为亚洲语言设计的BART模型,支持英语、汉语、韩语、日语等多种语言,适用于文本生成、翻译和摘要等多种自然语言处理任务,并提供预训练模型以便于研究和应用。
Hunyuan-Large是腾讯推出的大型MoE(Mixture of Experts)模型,拥有3890亿参数和520亿激活参数,是业界目前最大的开源Transformer基础MoE模型,专注于自然语言处理和长文本理解。
Anima是第一个开源的基于QLoRA的33B中文大语言模型,旨在支持大规模中文处理,促进社区参与与贡献,具备高效的模型训练与推理能力。
Infinity是一个高吞吐、低延迟的REST API,专为向量嵌入服务而设计,支持多种sentence-transformer模型和灵活的框架兼容性,旨在提升机器学习和自然语言处理任务的效率和性能。
从零基础到训练GPT的课程资料,旨在帮助用户从无深度学习知识到实现自己的GPT模型。
Firefly是一个中文对话式大语言模型,采用指令微调技术在中文数据集上进行优化,旨在提供高质量的中文对话生成能力,适用于多种应用场景。
将图像生成、视频生成、音频生成和通用自然语言处理整合到一个界面中,只需一个提示,即可完成所有需求
RWKV Infinite Context trainer 是一个用于训练任意上下文大小的工具,能够处理超过10k的上下文长度,同时在几乎恒定的VRAM内存消耗下运行。
一款专注于上下文理解和检索增强生成的6B大模型,旨在提升机器在理解和生成文本方面的应用能力。该模型通过先进的算法和丰富的训练数据,能够在各种自然语言处理任务中表现出色,尤其在对话系统和信息检索等领域,提供更为精准和相关的结果。
实现了对大型语言模型输出的约束解码,支持多种格式的语法规则,并且具有高效的性能。该项目旨在提高语言模型的输出质量,确保生成文本符合特定的语法和结构要求,适用于多种自然语言处理任务。
一个用于语言信息思维的计算框架,通过概率程序与自然语言相结合,破解世界模型。
Wrangl是一款用于自然语言处理和机器学习的并行数据预处理工具,能够提高数据处理效率,兼容多种数据格式,并提供丰富的数据清洗和转换功能。
这是一个在 LLM 中推进提示功能的框架,超越了思维链或思维树等范式所能提供的能力。通过将 LLM 生成的信息建模为任意的图形结构,GoT 提炼整个思维网络的实质,增强思维能力。
PyCantonese是一个用于粤语语言学和自然语言处理的Python库,支持粤语拼音和汉字的转换,提供粤语词汇和语法分析,能够进行文本的分词和标注,并具备语音合成和识别的功能,旨在为粤语研究和应用提供便利。