该项目汇集了最新的大型语言模型与自然语言处理(NLP)的研究论文和相关资源,旨在为研究者和开发者提供一个全面的平台,帮助他们了解和应用各种大型语言模型。
AAGPT是一个实验性开源应用,展示了大型语言模型(如GPT-3.5和GPT-4)的能力,适合研究和学习使用。它支持多种自然语言处理任务,便于社区的贡献与合作。
该项目旨在理解词嵌入,由达姆施塔特工业大学和莫斯科国立大学的研究人员开发。
这是一个通过远程访问部署在支持国家网内的ChatGPT API服务器,用Go语言编写。它是一个开源项目,主要功能是为ChatGPT提供API服务。ChatGPT是一个机器学习项目,可以用于实现聊天机器人等应用。
基于预训练语言模型的零样本和少样本NLP的教程,提供了一系列的示例和实用工具,用于帮助研究人员和工程师理解和应用这些技术。
开源中英双语对话模型 ChatGLM-6B 的第二代版本,拥有更强大的性能、更长的上下文、更高效的推理和更开放的协议。
Markup Annotation Tool 是一个网站,帮助用户轻松将文本转化为结构化数据。它提供了一个用户友好的界面,用于标注和标记文本,以提取有意义的信息。用户可以通过注册或登录网站,上传或输入要标注的文本,使用提供的工具高亮和标记文本的特定部分,最后将标注的文本保存或导出为所需格式的结构化数据。
LLaMA Server结合了LLaMA C++的强大功能与美观的聊天界面,提供高效的自然语言处理解决方案,支持多种语言并易于扩展和自定义,具有实时响应能力。
LLaMa2Lang是一个用于微调LLaMa2-7b模型的工具,旨在提升其在非英语语言中的对话能力。由于LLaMa2模型主要基于英语数据进行训练,因此在其他语言上的表现较差。本项目旨在改善这一问题,使LLaMa2能够更好地处理各种语言的对话需求。
Tinq.ai是一个AI工具包,提供多种自然语言处理(NLP)能力作为服务,包括命名实体识别、情感分析、文本分类、摘要生成、问答、文本生成和语言检测等。开发者可以通过注册API密钥并将其集成到项目中,轻松调用API执行各种NLP任务。
2000 Hugging Face Prompts 是一份全面的资源,旨在帮助爱好者学习和实验 Hugging Face,使他们熟悉其在不同背景下的功能和应用。
一个用于生成自然语言文本的C++库,基于LLaMA和Stanford Alpaca,但资源开销很小,可以在本地消费级GPU上运行。
一个集合了 Mojo 语言资源和工具的项目,旨在帮助开发者更好地使用 Mojo 语言。
AI Docs是一个平台,允许用户塑造和训练多个语言学习模型(LLM),以自动化各种任务。这些模型可以导出为API、Telegram机器人或WhatsApp机器人。用户可以使用提供的工具和资源创建和训练自己的LLM,指定所需功能并相应地训练模型。一旦训练完成,LLM可以被导出并集成到不同的应用程序或平台中。
CSGHub是一个开源的、可信的大模型资产管理平台,旨在帮助用户管理与大型语言模型及其应用(如数据集、模型文件、代码等)生命周期相关的资产。
这个项目汇集了深度符号逻辑领域的研究论文,主要关注自然语言处理应用,适合研究人员和开发者参考,提供最新的研究动态和趋势。
一个专注于从NLP和计算机视觉(CV)的基础知识到视觉语言模型(VLM)前沿技术的系列教程,提供学习路线图,涵盖Word2Vec等基础知识,并逐步深入视觉语言模型技术,适合初学者和有经验的开发者。
KG-LLM-Papers是一个整合知识图谱(KGs)与大语言模型(LLMs)的研究论文平台,提供丰富的研究文献列表,专注于这两个领域的交叉点。该项目由ZJUKG精心策划,便于用户轻松获取相关文献,并定期更新新出版的论文。