FlagAI是一个快速、易于使用和可扩展的大模型工具包,目标是支持在多模态的各种下游任务上训练、微调和部署大规模模型。
Linly是基于Falcon模型的增强版本,通过扩充中文词表并在中英文数据上进行增量预训练,旨在提升自然语言处理任务的效果。
clueai是一个开源的自然语言处理工具,用户可以在短时间内快速定制和部署自己的NLP API,旨在简化自然语言处理的集成过程,支持多种语言和模型,适合开发者和研究人员使用。
该项目提供丰富的学习路线图和Colab笔记本,帮助用户从基础知识到前沿技术,逐步掌握大型语言模型(LLM)的构建与应用。课程内容涵盖数学、Python编程、神经网络核心知识,以及如何构建高性能模型和开发部署LLM应用。
该项目旨在使用Rust语言在CPU上运行大型语言模型的推理。它不仅实现了快速的推理速度,还能在低能耗的情况下提供高效的性能。适用于本地推理和Rust项目集成,适合研究新语言模型应用。
ollama-voice-mac是一个在Mac上完全离线运行的语音助手,利用Mistral 7b模型进行自然语言处理,同时采用Whisper模型进行语音识别,提供用户友好的体验和多种语音指令支持。
LMOps是一个新的框架,用于训练并识别高质量的上下文示例,从而提升大型语言模型的性能。它通过评估候选例子的质量,促进上下文学习,能够有效处理未见过的任务,并对不同大小的LLM模型均有一致的性能提升。
UltraChat是由清华团队基于Scalable Diverse方法构建的开源对话语言模型,凭借其在多轮对话中的卓越表现,在斯坦福大学的评测榜单中脱颖而出,成为得分超过80的唯一开源模型。该模型利用大规模、高质量、高度多样化的多轮指令数据进行训练,并在AlpacaEval评测集及自建评测集上表现出色,最高胜率可达98%。UltraChat致力于推动大模型对齐技术的发展,为各种自然语言处理任务提供强有力的支持。
基于TensorRT实现的Streaming-LLM技术,旨在支持LLM模型进行无限输入长度的推理,提供高效、实时的AI服务。
Doc Search 是一个基于 GPT-3 的智能文档搜索引擎,能够通过自然语言处理技术,快速从各种文档中提取相关信息,并提供问答式的交互体验。它支持多种文档格式,用户可以通过友好的界面与系统进行对话,获取所需的答案。
这是一个自然语言处理系统,旨在根据给定文本自动生成阅读理解问题,帮助用户提高阅读理解能力。它支持多种问题类型,并提供可定制的生成选项,适用于教育领域的各种场景。
Llama 2 模型的优化版本,包含一系列解码器层,使用不同的投影大小和架构变化以提高效率。
这是一个可以让你轻松运行LLaMA2聊天模型的项目,支持官方版和中文版,仅需3个步骤即可完成部署。它可以在无GPU的环境中运行,适合低配置设备,使用INT4量化,支持5GB至14GB的显存配置。
Aquila语言大模型是在中英文高质量语料基础上从0开始训练的开源语言模型,具备更高效的训练效率和优秀的性能。
LEval是一个全面的长文本语言模型评估套件,包含18个长文档任务,涵盖多个领域,需要对长文本进行推理,包括摘要、问答、长对话示例中的上下文学习、主题检索和论文写作辅助等。
该项目汇集了最新的大型语言模型与自然语言处理(NLP)的研究论文和相关资源,旨在为研究者和开发者提供一个全面的平台,帮助他们了解和应用各种大型语言模型。
langchain-ChatGLM是一个用于处理自然语言处理任务的项目,允许通过语义匹配和上下文管理来优化对话系统的表现。该项目支持将原文划分为单句进行处理,基于提问语义进行单句匹配,同时具备上下文管理功能,结合单句前后文本进行分析,并可通过chunk_size限制上下文长度。
Refinery是一个开源的数据中心化集成开发环境,专注于自然语言处理,结合了程序化标注、广泛的数据管理和神经搜索能力。
一个简单快速的中文分词和命名实体识别工具,使用最新数据的字典文件,提供更合理的词频统计,分词速度是知名“结巴”中文分词的两倍。
AnglE是最新的文本嵌入模型,旨在优化文本嵌入,作为新一代的语义文本相似度方法,取得了新的最先进(SOTA)结果。它提供了预训练模型,包括语言模型(LLM)和数据集。
Graph4NLP是一个库,旨在简化图神经网络在自然语言处理中的应用,支持多种任务和模型的灵活使用。
一种上下文学习方法,将基于提示的表示应用于自回归模型,以生成高质量的句子嵌入,无需微调。该方法通过利用上下文信息,避免了传统微调过程的复杂性,同时支持不同规模的语言大模型,能够在多种转移任务上取得最佳结果。
MinT 是一个轻量级、可扩展的Transformer库,专为自然语言处理任务而设计,提供易于使用的API,支持多种预训练模型,能够高效地进行模型训练和推理。
LLaMA.go是一个LLaMA模型的纯Go实现,类似于llama.cpp,但完全用Go编写。
TaiChi是一个开源库,专注于少样本学习,可以支持多种自然语言处理任务,具有灵活的API设计和强大的可扩展性,适合研究者和开发者使用。
openlogprobs是一个Python API,旨在通过语言模型API提取完整的下一token概率。它通过使用logit偏置来逆向工程标记的对数概率,支持topk搜索和精确解算法,从而有效提取语言模型API的完整概率向量。
LLMFarm是一个基于GGML库构建的项目,支持在iOS和MacOS平台上离线运行多个大语言模型,提供用户友好的界面和高效的模型加载与推理功能。
YaLM-100B是Yandex推出的一个开源大型语言模型,参数达到100亿,旨在支持多种自然语言处理任务。它能够生成高质量的文本,并广泛应用于对话系统、文本生成和补全等领域。
在维基百科文章上运行文档问答(Q&A)任务,使用LangChain作为问答框架,使用OpenAI和HuggingFace模型进行嵌入和语言模型微调。该项目旨在提高用户在维基百科上查找信息的效率,通过自然语言处理技术,为用户提供准确的答案。
Kogito是一个专注于自然语言处理中的常识推理的工具包,集成了多种推理算法,并提供易于使用的API,支持自定义知识库,使得用户能够灵活地进行知识推理任务。