Symanto是一个利用人工智能和心理学为企业提供实时客户洞察的平台,帮助企业通过分析消费者数据和情感来保持竞争优势并提高投资回报率(ROI)。
Transformers和相关的深度网络架构在此进行了总结和实现,涵盖了自然语言处理和计算机视觉等多个领域。
该项目提供多个无审查的中文语言模型,支持多种文本生成任务,灵活选择与使用,开放访问,社区驱动更新。
《自然语言处理:基于预训练模型的方法》随书代码,提供多种基于预训练模型的自然语言处理方法,支持文本分类、命名实体识别、问答等任务,包含详细的使用示例和文档,易于扩展和集成到其他项目中。
一个用于生成文本和语言处理的示例项目,结合了LangChain和Google的Gemini模型,提供了多种语言生成和处理功能。
我们维护的NLP开源工具包,致力于自然语言处理的研究与应用,提供多种功能以支持学术研究和实际应用。
基于 LLaMA-7B 经过中文数据集增量预训练,旨在提升中文自然语言处理能力。
深言科技联合清华大学NLP实验室开源的语鲸-8B模型,其能力大致介于ChatGLM2和3之间。该模型支持多种自然语言处理任务,适用于各种应用场景。
LeNLP是一个为Python开发的自然语言处理工具箱,旨在通过Rust优化提升性能,集成高性能并行化功能,从而简化Python中的各种NLP任务。
TweetNLP - 面向Twitter的NLP工具包,提供一系列有用的工具,用于分析和理解推文,包括情感分析、表情符号预测和命名实体识别,基于专门针对Twitter的先进语言模型。
AndesGPT-7B是OPPO研究院基于Baichuan2项目继续训练得到的70亿参数规模中文语言模型,采用800B中文语料进行微调,能够有效处理多种中文自然语言处理任务。
tf-transformers是基于Tensorflow 2.0实现的最先进的自然语言处理架构,旨在提供更快的自动递归译码,支持多种前沿的NLP模型,如BERT、RoBERTA、T5、Albert和mt5等。其设计简化了API,便于用户使用和扩展,适合各种NLP任务。
ReaderLM-v2是一款增强文本理解能力的语言模型,支持多种语言,能够快速响应并高效提取信息。
最近的语言大模型(LLM)如 ChatGPT 和 GPT-4 展现出了通用模型的卓越能力,在各种自然语言处理任务上取得了最先进的性能,几乎无需或只需少量调整即可。
EmoLLM是一个心理健康大模型,旨在通过大语言模型支持心理健康相关的应用和研究。它能够处理多种心理健康相关的任务,并且支持微调和定制化,兼容多种大模型架构,同时提供实时对话能力。
MiniRBT (中文小型预训练模型) 是由iFLYTEK开发的一个小型中文预训练模型,旨在提供高效的自然语言处理能力。
本课程将教你使用 Hugging Face 生态系统中的库进行自然语言处理 (NLP)。课程涵盖了使用 Transformer 进行文本处理、数据集训练模型、文本分词及提高计算效率等多方面内容。
GTS引擎(GTS-Engine)是一款开箱即用且性能强大的自然语言理解引擎,聚焦于小样本任务,能够仅用小样本就能自动化生产NLP模型。
一个自然语言处理任务与实例集,提供多种NLP任务的实现和示例。
基于MindSpore的易于使用和高性能的自然语言处理(NLP)和语言模型(LLM)框架,与Huggingface的模型和数据集兼容,支持多种NLP任务。
一个中文大语言模型项目,旨在提供强大的自然语言处理能力,支持多种应用场景。
轩辕模型是一种开源的自然语言处理模型,旨在提供高效的文本生成和理解能力,支持多种语言,并可定制化模型参数,适用于多种文本处理任务。
PatrickStar使得更大、更快、更环保的预训练模型在自然语言处理领域成为可能,推动AI的普及。
该项目基于 QLoRA 技术对 Falcon-7B 大型语言模型进行微调,专注于心理健康领域的对话数据集,从而提升模型在特定领域的性能。该模型支持多种对话场景的处理,旨在为心理健康相关应用提供更优质的支持。
Cybertron是一个纯Go语言包,为前沿的自然语言处理(NLP)技术提供了简单易用的接口,支持多种预训练模型,具备高性能的文本处理能力,易于集成到现有的Go项目中。
Qwen是阿里通义千问开源的多语言处理框架,支持多种自然语言处理任务,提供高效的模型推理和友好的用户接口。它兼容多种开发环境,旨在为开发者提供高效构建语言模型的工具,支持广泛的语言覆盖与任务适配,帮助解决全球化场景下的文本处理需求。最新的720亿参数版Qwen-72B和Qwen-72B-Chat在多个任务上超越LLaMA2-70B和GPT系列模型。
WinkNLP是一个自然语言处理库,提供高性能的分词和多种NLP功能,适用于JavaScript应用程序。
海外中文开源大语言模型,基于 Llama-7B, -13B, -33B, -65B 进行中文领域上的持续预训练,使用了接近15M条数据,并针对推理能力在中文benchmark上进行了评测。
Flair是一个非常简单的框架,旨在提供最先进的自然语言处理技术,支持多种预训练模型,并拥有简单易用的API,适用于多种语言的文本处理,同时可以与其他深度学习框架(如PyTorch)无缝集成。
ERNIE是百度开发的自然语言处理框架,旨在通过持续学习和预训练技术提升语言理解与生成能力。它支持多种自然语言处理任务,包括文本分类、问答系统、文本生成等,并在多种任务中实现了最先进的性能。ERNIE基于Transformer架构,具备高效的模型优化和训练策略,支持多语言处理,适用于中文及其他语言的自然语言处理任务。