femtoGPT 是一个使用纯 Rust 编写的最小生成预训练 Transformer 实现,旨在提供轻量级、高效的自然语言生成能力,易于集成和扩展,适合各种机器学习应用。
ReplGPT.jl是一个开源的Julia REPL聊天模式项目,使用机器学习的技术实现聊天交互。
ChatGLM-6B是清华大学开发的一个开源双语对话语言模型,基于General Language Model (GLM)架构,具有62亿参数。它支持中英双语对话,并具备图像理解的多模态功能。模型经过约1T标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术,旨在提供高质量的对话生成和自然语言处理能力。结合模型量化技术,可在消费级显卡上本地部署(INT4量化级别下最低只需6GB显存),并针对中文问答和对话进行了优化。
Jlama是一个纯Java实现的大规模语言模型推理引擎,支持多种模型格式,能够提供高性能和低内存占用,易于集成到各种应用中。
基于GPT-2模型的中文文本生成项目,旨在为中文自然语言处理提供强大的文本生成能力,支持预训练和fine-tuning,适用于多种场景,如创作、对话等。
NLP-Knowledge-Graph项目致力于将自然语言处理、知识图谱和对话系统三大技术进行深度研究与应用。该项目不仅支持构建和优化对话系统,还提供多种数据处理与分析工具,具备强大的可扩展性,允许用户自定义模块,并支持多语言处理,满足不同领域的需求。
最小 PyTorch 实现的 GPT-2 和 Llama,旨在简化代码以便更容易理解和使用,并且能够在短时间内训练出性能良好的自然语言生成系统。
langchain-ChatGLM是一个用于处理自然语言处理任务的项目,允许通过语义匹配和上下文管理来优化对话系统的表现。该项目支持将原文划分为单句进行处理,基于提问语义进行单句匹配,同时具备上下文管理功能,结合单句前后文本进行分析,并可通过chunk_size限制上下文长度。
Yi是一个专为高效语言模型设计的开源框架,支持从零开始训练的大型语言模型。它包含两款双语模型Yi-6B及Yi-34B,均自研训练,参数规模分别为6B和34B。Yi通过优化算法与资源管理,提供从实验到部署的完整流程,支持多种语言的文本生成、对话系统和问答任务。
Aurora是中文版MoE模型,具有强大的自然语言处理能力,基于Mixtral-8x7B的进一步工作,激活了该模型在中文开放域的聊天能力。
llm.mojo是Andrjey Karpathy将大型语言模型(LLM)最小化代码移植到Mojo编程语言的版本,旨在提供高效的模型推理和简化的学习体验。
OpenChat是一个基于LLaMA架构的开源大语言模型,通过6K GPT-4对话数据进行微调,旨在在推理效率和表现力上达到与ChatGPT相当的水平。它利用自然语言对话数据和强化学习方法,在混杂质量数据下进行训练,克服了labels标注难题,是开源领域内表现最出色的模型之一。
由字节跳动开发的先进的多模态大型模型,旨在处理涉及文本、图像和视频数据的各种任务,并在电商和短视频基准测试中取得了最佳结果
ConvAI bot是一个专为NIPS 2017智能会话挑战赛而开发的基于技能的对话代理,旨在实现自然流畅的对话,能够适应不同的对话场景并学习用户的偏好。
收录各种各样的指令数据集,用于训练 ChatLLM 模型,支持多种自然语言处理任务。
Continual是现代数据栈的领先操作性AI平台,能够构建不断改进的预测模型,无需复杂的工程。它为产品和工程团队提供了在SaaS应用中构建对话体验和AI自动化的能力,能够连接私有数据和API,并允许在几分钟内轻松部署。
UltraChat是由清华团队基于Scalable Diverse方法构建的开源对话语言模型,凭借其在多轮对话中的卓越表现,在斯坦福大学的评测榜单中脱颖而出,成为得分超过80的唯一开源模型。该模型利用大规模、高质量、高度多样化的多轮指令数据进行训练,并在AlpacaEval评测集及自建评测集上表现出色,最高胜率可达98%。UltraChat致力于推动大模型对齐技术的发展,为各种自然语言处理任务提供强有力的支持。