Classy-Fire是一个基于Azure OpenAI的LLM API的预训练多类文本分类方法,采用巧妙的参数微调和提示设计,能够高效地处理各种文本分类任务。
Kansformers是一个基于知识增强网络(KANs)的Transformer架构,旨在提高自然语言处理任务的性能。它提供多种预训练模型,支持针对特定任务的微调,并具备高效的模型推理能力和灵活的API设计,适合多种应用场景。
tinyzero是一个使用Python编写的项目,旨在轻松训练类似AlphaZero的智能体,适用于任意环境,并提供了训练和评估智能体的功能。
只依赖pytorch、transformers、numpy、tensorboardX,专注于文本分类、序列标注的极简自然语言处理工具包
音频领域的大型语言模型集合,专注于音频处理、理解和生成,为音频语言模型提供丰富的资源和工具
Transformer语言模型域自适应工具包,用于将基于Transformer的语言模型适应于新的文本领域。该工具包支持多种预训练模型,并提供灵活的配置选项,使得用户能够轻松调整和评估模型在特定领域的表现,从而有效提升自然语言处理任务的效果。
Neural Speech Synthesis是由Xu Tan和Hung-yi Lee在2022年Interspeech教程中介绍的一种先进的语音合成技术,利用深度学习算法生成自然流畅的语音,支持多种风格和情感,适用于多种应用场景。
Transformers Notebooks是一组用于自然语言处理的Jupyter笔记本,旨在帮助用户快速上手使用Transformers库,提供丰富的示例和教程,涵盖文本分类、问答、翻译等多种任务,同时支持快速实验和模型评估。
该课程提供了基于Transformer架构的音频处理技术,包含丰富的音频数据集和预训练模型,支持多种音频任务如分类、生成和转录,并结合实用示例和代码演示,帮助学习者掌握音频处理的最新技术。
OpenTextClassification是一个全面的开源文本分类项目,支持中英双语,提供多种模型和适用于多种文本分类任务的解决方案。该项目易于使用和修改,具备友好的用户界面,旨在帮助用户高效地进行文本分类任务。
Flair是一个非常简单的框架,旨在提供最先进的自然语言处理技术,支持多种预训练模型,并拥有简单易用的API,适用于多种语言的文本处理,同时可以与其他深度学习框架(如PyTorch)无缝集成。
ark-nlp是一个旨在收集和复现学术与工作中常用的自然语言处理模型的平台,支持多种NLP任务,并提供丰富的预训练模型,适合研究人员和开发者使用。
基于预训练语言模型的零样本和少样本NLP的教程,提供了一系列的示例和实用工具,用于帮助研究人员和工程师理解和应用这些技术。
Movenet.Pytorch是Google推出的MoveNet在Pytorch中的实现,包含训练代码和预训练模型,适用于人体关键点检测任务。
RVC是一款高效的AI语音转换模型,能够学习目标人物的声音特征,并进行高质量的音色转换。它采用检索增强技术,使生成的语音更加接近真人,保留原有音色的细腻度与自然性。此外,RVC易于使用,基于VITS框架,支持多种声音风格转换,提供高质量的声音合成和用户友好的接口,同时具备较强的可扩展性,支持自定义模型。
MinT 是一个轻量级、可扩展的Transformer库,专为自然语言处理任务而设计,提供易于使用的API,支持多种预训练模型,能够高效地进行模型训练和推理。
Hugging Face是一个专注于人工智能的开放源代码平台,旨在通过开放科学推进和普及人工智能技术。该项目提供了一系列工具和库,帮助开发者和研究人员轻松构建和应用自然语言处理(NLP)模型。
EnergeticAI是为无服务器功能优化的TensorFlow.js,提供快速冷启动、小模块大小和预训练模型,非常适合在Node.js应用中集成开源AI。
Stable Video Diffusion 是一个可以本地部署的视频生成模型,旨在通过先进的生成技术创建高质量视频内容。该项目基于生成对抗网络(GAN)技术,支持多种输入格式,能够生成多样化的视频内容,并集成了多种预训练模型,便于用户快速上手。
Hugging Face是一个用户友好的开源平台,旨在快速构建、训练和部署AI模型与应用,无需深厚的机器学习专业知识。它支持流行框架,提供全面的文档,并专注于自然语言处理(NLP),为AI研究人员和工程师提供不可或缺的资源。