PrimeQA是一个先进的多语言问答研究与开发的主要资源库,支持最新的深度学习模型,易于扩展和定制,并提供多种数据集与基准测试,适用于实时问答和批量处理场景。
一个用于中文信息抽取的项目,基于LLaMA和Alpaca模型,结合LoRA技术进行微调。该项目旨在提供高效、准确的中文文本处理能力,特别是在命名实体识别(NER)方面,支持多种训练和评估配置,方便用户根据需求进行模型微调与集成。
检索增强生成(RAG)是指在大型语言模型回答问题之前,从外部知识库中检索相关信息,以提高答案的准确性和减少模型的幻觉现象。该方法结合了参数化知识与非参数化外部知识库,能够引用来源,从而增加答案的透明度,并支持知识的更新和特定领域知识的引入。
通义千问-7B是阿里云研发的通义千问大模型系列的70亿参数规模的模型,基于Transformer的大语言模型,经过超大规模的预训练数据训练,覆盖广泛,包括网络文本、专业书籍、代码等。
QA-CLIP是一个支持中文文本和图像的多模态理解的模型,具有最先进的性能和准确性,能够用于多种下游任务,如图像分类、文本生成等,且易于集成和使用。
一个用于搭建类似Perplexity的问答引擎的项目,结合了多种先进的技术和模型。
一个用于促进和支持链式思考的工具库,旨在提高模型推理能力和理解力。
OpenICL是一个开源的框架,旨在支持上下文学习,提供多种算法和灵活的接口,便于集成到现有的自然语言处理模型中。
一个中文低资源的llama+lora方案,基于LLaMA与instruction数据构建的中文羊驼模型,旨在帮助用户快速引入自己的数据并训练出属于自己的小羊驼(Vicuna)。
phospho是一个专为大型语言模型(LLM)应用而设计的文本分析平台,能够从文本消息中提取评估、意图和事件,利用OpenAI、MistralAI、Ollama等先进的LLM技术,帮助用户更好地理解和处理文本数据。
Aquila语言大模型是在中英文高质量语料基础上从0开始训练的开源语言模型,具备更高效的训练效率和优秀的性能。
将SOTA多模态能力融入语言模型,改进基础模型、修改训练过程、自定义数据集以及对LLaVA实现的重大架构更改。
ModuleFormer是一种基于MoE(Mixture of Experts)的架构,旨在提高大型语言模型的计算效率和可扩展性。其设计允许通过稀疏激活专家子集来实现与密集型语言模型相同的性能,同时在吞吐量上超过两倍。此外,它对灾难性遗忘具有免疫力,能够通过引入新专家来学习新知识,并且支持对特定微调任务的专家进行专注,便于轻量级部署。
Smol Vision是一个专注于视觉模型的压缩、优化与定制的方案集,旨在缩小模型尺寸、提高运行速度,并实现个性化定制。该项目支持多种视觉任务,并易于集成与使用,适合在资源有限的环境中应用。
ParallelGPT是一个AI工具,允许用户在电子表格界面中并行批量处理ChatGPT查询,支持批量导入提示、低代码调整提示以及团队协作,创建强大的ChatGPT工作流程。
Mebot是一款先进的机器人流程自动化(RPA)工具,能够帮助企业自动化重复性任务,优化工作流程。通过使用基于规则的机器人,Mebot消除了人工干预,实现了高准确性和更高的生产力。它具备无缝集成能力,可以与各种应用程序、数据库和系统集成,确保端到端的自动化。此外,Mebot优先考虑安全性,支持本地安装和本地流程执行,确保数据隔离并降低安全风险。
Hugot 是一个用于 Golang 的 huggingface transformer pipelines,可以轻松地将 Python 中的 huggingface 模型部署到 golang 应用中。该项目支持多种 Hugging Face 模型,简化模型部署过程,轻松与 Golang 应用集成,提供高性能的推理和用户友好的 API。
Superflows是一个开源工具包,用于为SaaS产品构建AI助手,用户可以用自然语言提问,然后助手调用软件API来回答问题。