Traditional-Chinese Alpaca是一个基于Alpaca的指令跟随模型,专为繁体中文用户设计,适用于多种自然语言处理任务,能够有效地进行文本生成和对话系统应用。
med-flamingo是一个基于OpenFlamingo-9B和LLaMa-7B构建的模型,能够在医学领域执行少样本的视觉问答任务。该项目结合了CLIP ViT/L-14视觉编码器,并使用约4.7K本医学教科书进行训练,包含0.8M张图像和548M个token,支持1.6M个图像字幕对的生物医学数据集。
Jlama是一个纯Java实现的大规模语言模型推理引擎,支持多种模型格式,能够提供高性能和低内存占用,易于集成到各种应用中。
langchain-examples是一个由LangChain LLM框架驱动的应用程序集合,旨在展示其强大功能,涵盖多种使用场景和用例,提供易于扩展和定制的示例,适合快速原型开发和学习。
Tiny LLM zh 是一个从零开始的小参数量中文大语言模型,旨在帮助学习者快速掌握大模型相关知识。该项目提供了公开的数据和代码,支持多阶段训练和人类对齐技术,使得用户能够轻松入门并进行相关实验。
VERSE-65B 是由深圳元象科技自主研发的支持多语言的大语言模型,参数规模为 650 亿,开源的底座模型。
HammerLLM是一个具有1.4B参数的语言模型,提供了简洁高效的训练代码库,同时完全开源了模型权重、环境、代码库和超参数,支持中英文的生成和理解,具有高效的训练和推理能力,适合多种自然语言处理任务。
轩辕模型是一种开源的自然语言处理模型,旨在提供高效的文本生成和理解能力,支持多种语言,并可定制化模型参数,适用于多种文本处理任务。
用纯Pytorch原生实现的RWKV大语言模型的推理框架,提供高效的文本生成和推理功能,适合与PyTorch生态系统的其他工具集成,支持开源社区的贡献和协作。
DeepSeek LLM是一款拥有670亿个参数的先进语言模型,通过庞大的包含2万亿标记的数据集在英语和中文上进行了从零开始的训练,旨在提供高质量的自然语言处理能力。
有关大型语言模型(LLM)约束解码的精选论文列表,包含相关代码和资源,旨在实现更可靠、可控和高效的文本生成。
基于PyTorch的GPT-2模型训练器,优化效率和代码简化,实现现代技术如旋转嵌入,以更少的token达到相同验证损失。该项目专注于提升模型训练的效率,使得用户能够在多种深度学习任务中更便捷地使用GPT-2架构。
RAG技术通过检索方法与深度学习结合,动态整合最新的外部信息,以提高大型语言模型生成文本的可靠性,并解决生成过程中可能出现的错误信息(幻觉)问题。
PatrickStar使得更大、更快、更环保的预训练模型在自然语言处理领域成为可能,推动AI的普及。
LaMini-LM是一个对多个迷你大语言模型进行微调的项目,旨在提升模型的性能,其中包括经过微调的GPT-2,其性能可与LLaMa的Alpaca-7B相媲美。
ThinkGPT是一种基于LLM的自主智能体,旨在增强大型语言模型的能力,支持多种任务,并提供灵活的架构设计和强大的可扩展性。
nanoRWKV是RWKV语言模型的轻量级实现,专为快速实验与多种语言处理任务设计,兼容RWKV架构,基于nanoGPT优化了性能和效率,易于扩展和自定义。
Baichuan-13B 是由百川智能继 Baichuan-7B 之后开发的包含 130 亿参数的开源可商用的大规模语言模型,在权威的中文和英文 benchmark 上均取得同尺寸最好的效果。
百川智能推出的新一代开源大语言模型,采用 2.6 万亿 Tokens 的高质量语料训练。在多个权威的中文、英文和多语言的通用、领域 benchmark 上取得同尺寸最佳的效果。
一个展示GPT-4潜力的实验项目,通过GPT-4驱动,实现自主目标完成。
fullmoon-ios是一个开源的iOS本地LLM项目,支持与本地大模型进行聊天,兼容iPhone、iPad、Mac和Vision设备,旨在提供用户隐私保护的同时,方便用户进行多种文本生成和对话交互。
PyLLMCore是一个提供与大型语言模型轻量级接口的Python库,旨在简化与LLM的交互,使开发者能够轻松集成和使用各种语言模型。
该项目旨在展示如何在中文环境中使用Transformers库进行自然语言处理(NLP)任务,提供了丰富的示例和详细的文档,以帮助用户理解和应用相关技术。
Asian Bart是一个专为亚洲语言设计的BART模型,支持英语、汉语、韩语、日语等多种语言,适用于文本生成、翻译和摘要等多种自然语言处理任务,并提供预训练模型以便于研究和应用。
Hunyuan-Large是腾讯推出的大型MoE(Mixture of Experts)模型,拥有3890亿参数和520亿激活参数,是业界目前最大的开源Transformer基础MoE模型,专注于自然语言处理和长文本理解。
btw是一个基于OpenAI服务的命令行助手,专注于自然语言处理,用户可以通过简单的命令行交互来执行多种NLP任务,如文本生成和翻译等。它集成了OpenAI的强大API,提供了易于使用的界面,适合开发者和普通用户使用。
Anima是第一个开源的基于QLoRA的33B中文大语言模型,旨在支持大规模中文处理,促进社区参与与贡献,具备高效的模型训练与推理能力。
一款专注于上下文理解和检索增强生成的6B大模型,旨在提升机器在理解和生成文本方面的应用能力。该模型通过先进的算法和丰富的训练数据,能够在各种自然语言处理任务中表现出色,尤其在对话系统和信息检索等领域,提供更为精准和相关的结果。
由vivo AI全球研究院自主研发的大规模预训练语言模型,具有更大量的优质数据、更优的效果及长文本支持。
CopilotKit是一个开源框架,专为构建自定义AI助手而设计,如应用内AI聊天机器人、AI代理和AI驱动的输入框。它支持生成式UI,允许AI聊天机器人通过插件与应用程序的前端、后端以及第三方服务进行交互。此外,它提供了直接替代<textarea />的人工智能辅助文本生成功能,使代理能够访问实时应用程序上下文并在应用程序内执行操作。用户还可以观察和干预应用内AI代理的操作。