One-GLM是基于GLM架构的项目,移植到了使用OneFlow后端进行训练,能够大幅提升性能和显存利用率。
该项目汇集了多个开源的中文预训练语言模型及其对应的指令数据集,旨在为中文自然语言处理提供丰富的资源。
基于GPT-2模型的中文文本生成项目,旨在为中文自然语言处理提供强大的文本生成能力,支持预训练和fine-tuning,适用于多种场景,如创作、对话等。
一个包含多种自然语言处理教程的项目,涵盖了Transformer等模型的实现和应用。
SpeechT5是一个统一的多模态编码器-解码器预训练模型,专门用于口语处理任务,旨在通过有效的预训练提升语音识别和自然语言处理的性能。
Auto-GPT-ZH是中文版AutoGPT,旨在提供一个中文环境下的自动化GPT应用,支持多种API扩展,用户可以自定义任务和目标,具有高效的文本生成和对话能力,界面友好,适合各种中文场景的应用。
该项目集成了基于 transformers 库实现的多种自然语言处理任务,支持用户使用各种预训练模型,进行文本分类、生成、命名实体识别、机器翻译等操作,并且允许用户自定义数据集,易于使用和扩展。
这是2022搜狐校园算法大赛NLP赛道第一名的开源方案,包含实验代码,旨在提供高效的自然语言处理解决方案。该项目经过优化,能够支持多种数据预处理方式,并提供详细的实验结果和分析,帮助用户更好地理解和应用自然语言处理技术。
LLaMa2Lang是一个用于微调LLaMa2-7b模型的工具,旨在提升其在非英语语言中的对话能力。由于LLaMa2模型主要基于英语数据进行训练,因此在其他语言上的表现较差。本项目旨在改善这一问题,使LLaMa2能够更好地处理各种语言的对话需求。
旨在探索一种新的实验性模型训练流程,以训练高性能的特定任务模型,将训练过程的复杂性抽象化,使从想法到性能优越的完全训练模型的过程尽可能简单。用户只需输入任务描述,系统将从头开始生成数据集,将其解析为正确格式,并微调LLaMA 2模型。
这是一个正在开发中的SQLite扩展,旨在使用llama.cpp生成文本嵌入,适用于文本语义搜索和分析。
Web LLM 是一个可以在浏览器中直接运行大型语言模型的工具,支持通过 WebGPU 加速。它支持多种大型语言模型,包括 Llama 2 7B/13B、Mistral 7B 和 WizadMath,并能够在设备内存为 64GB 的情况下运行 Llama 2 70B 模型。利用 WebGPU 提供更快、更流畅的模型运行体验,仅需约 6GB 的显存即可运行 Llama 7B 和 Vicuna-7B。
Graph4NLP是一个库,旨在简化图神经网络在自然语言处理中的应用,支持多种任务和模型的灵活使用。
这是一个基于 LangChain 实现的插件版本,用户可以轻松搭建和部署自己的 ChatGPT 网页服务,具备多种自定义功能和实时聊天记录保存,适合多种场景应用。
该项目提供多个无审查的中文语言模型,支持多种文本生成任务,灵活选择与使用,开放访问,社区驱动更新。
stable-diffusion-webui的LLaMA版,让你可以通过一个Web界面和本机的LLaMA模型交互,提供本地版的ChatGPT体验。
高效LLM推理加速助手:通过并行提示技术提升大型语言模型的推理效率,适用于边缘和移动环境,具有正交优化、内存效率和训练效率三大特点,显著提升速度并保持低内存开销
这是一个精心策划的阅读列表,专注于机器心智理论的最新进展,基于EMNLP 2023年关于大语言模型中情境心智理论的论文构建。