MOSS 是由复旦大学自然语言处理实验室开发的对话语言模型,类似于 ChatGPT,旨在帮助用户完成各种语言任务,如问答、文本生成等。该项目于 2023 年 2 月 20 日发布,目前处于研究预览阶段,免费提供,但访问受限,需通过问卷申请邀请码。MOSS 的设计理念包括有帮助、诚实和无害,计划完全开源,与 ChatGPT 相比参数较少,学习方式不同。
MOSS 是由复旦大学开发的开源对话语言模型,支持中英双语,具备多轮对话能力和插件功能。其基座模型在约7000亿中英文和代码单词上预训练,并通过对话指令微调、插件增强学习和人类偏好训练,旨在提供高效、实用的对话AI。MOSS 参数规模为16亿,相比ChatGPT规模较小,但训练效率较高,适合复杂交互场景。
CuteGPT是复旦大学知识工场实验室推出的一个支持中英双语的开源对话语言模型,基于Llama模型结构进行改进和扩展,规模为13B(130亿)参数,可以在单张3090显卡上进行int8精度的推理。
OpenChat是一个基于LLaMA架构的开源大语言模型,通过6K GPT-4对话数据进行微调,旨在在推理效率和表现力上达到与ChatGPT相当的水平。它利用自然语言对话数据和强化学习方法,在混杂质量数据下进行训练,克服了labels标注难题,是开源领域内表现最出色的模型之一。
ReplGPT.jl是一个开源的Julia REPL聊天模式项目,使用机器学习的技术实现聊天交互。
MiniAutoGen是一款前沿的库,专注于促进多智能体之间的对话。它以轻量设计和多功能性著称,非常适合希望在对话AI领域进行创新的开发者和研究人员。
这是国内第一个真正的开源、可下载、可运行的 LLaMA2 模型,提供中文版 Llama2模型及中英文 SFT 数据集,兼容适配所有针对原版 llama-2-chat 模型的优化。
MOSS是一个支持中英双语和多种插件的开源对话语言模型,具有多轮对话能力和插件使用能力。
中科闻歌研发的新一代开源大语言模型,采用了超过 2 万亿 Tokens 的高质量、多语言语料进行预训练。
femtoGPT 是一个使用纯 Rust 编写的最小生成预训练 Transformer 实现,旨在提供轻量级、高效的自然语言生成能力,易于集成和扩展,适合各种机器学习应用。
Chinese LLaVA是一个支持中英文双语的开源多模态模型,能够进行视觉与文本的结合对话,具备高效的理解能力和灵活的应用场景,适合商用开发。
Chinese LLaMA-Alpaca是一个专注于中文的LLaMA-Alpaca模型,旨在推动中文自然语言处理的研究和应用。该模型基于先进的LLaMA架构,适用于多种中文任务,帮助用户在中文环境中实现更智能的交互与分析。
FastChat是一个基于Llama-2构建的对话生成项目,支持32k的上下文长度,旨在提供高效的对话生成能力,适用于多种应用场景。它是一个开源项目,易于自定义和扩展,适合开发聊天机器人和进行自然语言处理任务。
ERNIE是百度开发的自然语言处理框架,旨在通过持续学习和预训练技术提升语言理解与生成能力。它支持多种自然语言处理任务,包括文本分类、问答系统、文本生成等,并在多种任务中实现了最先进的性能。ERNIE基于Transformer架构,具备高效的模型优化和训练策略,支持多语言处理,适用于中文及其他语言的自然语言处理任务。
Betalgo OpenAI是一个Dotnet SDK,旨在将OpenAI的各种模型(如ChatGPT、Whisper、GPT-3和DALL·E)轻松集成到.NET应用程序中,支持多种功能,包括文本生成、语音识别和图像生成。
基于 LLaMA-7B 经过中文数据集增量预训练,旨在提升中文自然语言处理能力。
ChatGLM2-6B 全参数微调,支持多轮对话的高效微调,旨在提升对话系统的性能和用户体验。该项目通过对预训练模型的全面微调,使其能够适应特定任务和领域,提高了模型的灵活性和适用性。
permchain 是一个用于使用 LLM 构建有状态的多参与者应用的开发库,扩展了 LangChain 表达式语言,能够跨多个计算步骤协调多个链(或参与者)。