EnergeticAI是为无服务器功能优化的TensorFlow.js,提供快速冷启动、小模块大小和预训练模型,非常适合在Node.js应用中集成开源AI。
OpenTextClassification是一个全面的开源文本分类项目,支持中英双语,提供多种模型和适用于多种文本分类任务的解决方案。该项目易于使用和修改,具备友好的用户界面,旨在帮助用户高效地进行文本分类任务。
Flair是一个非常简单的框架,旨在提供最先进的自然语言处理技术,支持多种预训练模型,并拥有简单易用的API,适用于多种语言的文本处理,同时可以与其他深度学习框架(如PyTorch)无缝集成。
基于MindSpore的易于使用和高性能的自然语言处理(NLP)和语言模型(LLM)框架,与Huggingface的模型和数据集兼容,支持多种NLP任务。
Classy-Fire是一个基于Azure OpenAI的LLM API的预训练多类文本分类方法,采用巧妙的参数微调和提示设计,能够高效地处理各种文本分类任务。
一种上下文学习方法,将基于提示的表示应用于自回归模型,以生成高质量的句子嵌入,无需微调。该方法通过利用上下文信息,避免了传统微调过程的复杂性,同时支持不同规模的语言大模型,能够在多种转移任务上取得最佳结果。
MiniRBT (中文小型预训练模型) 是由iFLYTEK开发的一个小型中文预训练模型,旨在提供高效的自然语言处理能力。
tf-transformers是基于Tensorflow 2.0实现的最先进的自然语言处理架构,旨在提供更快的自动递归译码,支持多种前沿的NLP模型,如BERT、RoBERTA、T5、Albert和mt5等。其设计简化了API,便于用户使用和扩展,适合各种NLP任务。
bricks是一个模块化的自然语言处理工具,包含分类器、提取器和生成器等众多基础模块,支持多种NLP任务,具有开源和易于扩展的特点。
Kansformers是一个基于知识增强网络(KANs)的Transformer架构,旨在提高自然语言处理任务的性能。它提供多种预训练模型,支持针对特定任务的微调,并具备高效的模型推理能力和灵活的API设计,适合多种应用场景。
这个开源项目是一个Telegram机器人,它使用Python编写,可以使用OpenAI官方的ChatGPT API提供回答。它的主要功能是与用户聊天,提供智能化的回答。
我们维护的NLP开源工具包,致力于自然语言处理的研究与应用,提供多种功能以支持学术研究和实际应用。
SuperClass是一个旨在提高视觉和语言预训练任务中分类准确性的项目,通过整合视觉和语言模态,优化预训练任务的性能。
TUMCC是一个用于识别Telegram地下市场中中文术语的语料库,旨在帮助研究者分析在线非法活动的语言特征。该语料库包含对各种术语及其含义的注释,并利用上下文和语言特征提高识别能力。
MinT 是一个轻量级、可扩展的Transformer库,专为自然语言处理任务而设计,提供易于使用的API,支持多种预训练模型,能够高效地进行模型训练和推理。
zero_nlp 是一个专注于中文自然语言处理的项目,提供全面的NLP数据处理流程,支持多种预训练模型,具备便捷的模型训练接口以及高效的推理与评估工具,适合研究与应用开发。
中文Mixtral-8x7B,基于Mistral发布的模型Mixtral-8x7B进行了中文扩词表增量预训练,旨在提升中文文本生成和理解能力,支持多种自然语言处理任务。
TigerBot 是一个基于 BLOOM 的多语言多任务大规模语言模型(LLM),在模型架构和算法上进行了多项优化,旨在提供高效的自然语言处理能力,支持多种语言和任务,具有强大的可扩展性。