MinText是一个基于JAX的可扩展大型语言模型的极简实现,提供了清晰模块化的LLaMA架构,易于修改和扩展。它支持在数千个加速器上扩展大型模型,适用于高性能计算和分布式计算环境。
Wayfarer-Large-70B-Llama-3.3是由LatitudeGames发布的专为文字冒险游戏设计的微调模型,基于Llama架构,拥有70B参数。该模型已成功应用于LatitudeGames的在线AI地牢游戏中,提供丰富的故事情节生成和交互体验。此外,模型还提供量化版本,以优化性能并提升运行效率。
从零开始构建具有LLaMA 1架构的2.3M参数大型语言模型(LLM),无需高端GPU,采用简化数据集和基础PyTorch实现。该项目旨在使更多开发者能够在资源有限的情况下,轻松构建和训练自己的语言模型,适用于研究和开发用途。
OpenChat是一个基于LLaMA架构的开源大语言模型,通过6K GPT-4对话数据进行微调,旨在在推理效率和表现力上达到与ChatGPT相当的水平。它利用自然语言对话数据和强化学习方法,在混杂质量数据下进行训练,克服了labels标注难题,是开源领域内表现最出色的模型之一。
ReplGPT.jl是一个开源的Julia REPL聊天模式项目,使用机器学习的技术实现聊天交互。
MiniAutoGen是一款前沿的库,专注于促进多智能体之间的对话。它以轻量设计和多功能性著称,非常适合希望在对话AI领域进行创新的开发者和研究人员。
这是国内第一个真正的开源、可下载、可运行的 LLaMA2 模型,提供中文版 Llama2模型及中英文 SFT 数据集,兼容适配所有针对原版 llama-2-chat 模型的优化。
MOSS是一个支持中英双语和多种插件的开源对话语言模型,具有多轮对话能力和插件使用能力。
中科闻歌研发的新一代开源大语言模型,采用了超过 2 万亿 Tokens 的高质量、多语言语料进行预训练。
femtoGPT 是一个使用纯 Rust 编写的最小生成预训练 Transformer 实现,旨在提供轻量级、高效的自然语言生成能力,易于集成和扩展,适合各种机器学习应用。
Chinese LLaVA是一个支持中英文双语的开源多模态模型,能够进行视觉与文本的结合对话,具备高效的理解能力和灵活的应用场景,适合商用开发。
Chinese LLaMA-Alpaca是一个专注于中文的LLaMA-Alpaca模型,旨在推动中文自然语言处理的研究和应用。该模型基于先进的LLaMA架构,适用于多种中文任务,帮助用户在中文环境中实现更智能的交互与分析。
FastChat是一个基于Llama-2构建的对话生成项目,支持32k的上下文长度,旨在提供高效的对话生成能力,适用于多种应用场景。它是一个开源项目,易于自定义和扩展,适合开发聊天机器人和进行自然语言处理任务。
ERNIE是百度开发的自然语言处理框架,旨在通过持续学习和预训练技术提升语言理解与生成能力。它支持多种自然语言处理任务,包括文本分类、问答系统、文本生成等,并在多种任务中实现了最先进的性能。ERNIE基于Transformer架构,具备高效的模型优化和训练策略,支持多语言处理,适用于中文及其他语言的自然语言处理任务。
Betalgo OpenAI是一个Dotnet SDK,旨在将OpenAI的各种模型(如ChatGPT、Whisper、GPT-3和DALL·E)轻松集成到.NET应用程序中,支持多种功能,包括文本生成、语音识别和图像生成。
基于 LLaMA-7B 经过中文数据集增量预训练,旨在提升中文自然语言处理能力。
ChatGLM2-6B 全参数微调,支持多轮对话的高效微调,旨在提升对话系统的性能和用户体验。该项目通过对预训练模型的全面微调,使其能够适应特定任务和领域,提高了模型的灵活性和适用性。
permchain 是一个用于使用 LLM 构建有状态的多参与者应用的开发库,扩展了 LangChain 表达式语言,能够跨多个计算步骤协调多个链(或参与者)。
字节跳动提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型