TimesFM是Google Research开发的预训练时间序列基础模型,旨在提高预测准确性并简化部署过程,支持多种格式的数据,可灵活预测未来时间点,并适用于多个行业的时间序列分析。
《自然语言处理:基于预训练模型的方法》随书代码,提供多种基于预训练模型的自然语言处理方法,支持文本分类、命名实体识别、问答等任务,包含详细的使用示例和文档,易于扩展和集成到其他项目中。
这是一个基于TensorPack框架的实现与模型集锦,包含多种预训练模型,适用于图像处理和计算机视觉任务,易于扩展和自定义。
一个公开的项目,旨在通过开源方式匹配 OpenAI O1 模型的强大能力,使社区能够拥有先进的替代品
本地部署全功能版stable diffusion,支持多种配置和功能,适用于深度学习图像生成任务。该项目允许用户在本地环境中生成高质量的图像,支持多种输入方式和参数设置,能够满足不同的生成需求。
该项目提供了Vision Transformer在Tensorflow中的完整实现,支持多种数据集和任务,易于扩展和修改,并包含详细的使用示例和文档,帮助用户快速上手并深入了解模型的应用与性能。
zero_nlp 是一个专注于中文自然语言处理的项目,提供全面的NLP数据处理流程,支持多种预训练模型,具备便捷的模型训练接口以及高效的推理与评估工具,适合研究与应用开发。
这是一个由Arcee AI开发的领域适应语言建模工具包,旨在通过适应性训练提高模型在特定领域的表现。它支持多种语言模型的微调,能够兼容多种数据格式,且易于集成和扩展。
Qwen-VL是一个支持多种模态输入的高性能项目,旨在提供图像理解和生成能力,并具备灵活的API接口,适合多种应用场景。
Chronos是一个基于语言模型架构的概率时间序列预测预训练模型,能够将时间序列数据转化为Token序列,并通过交叉熵损失训练语言模型,从而实现多轨迹采样以获得概率预测分布。
ChineseNMT是一个基于Transformer架构的高效英译中翻译模型,使用PyTorch实现,支持自定义数据集训练,提供预训练模型,并且易于扩展和修改。
该项目提供了现代深度学习技术在自然语言处理中的应用,包括多种模型和算法,结合实用代码示例,适用于多种NLP任务,文档易于理解,同时持续更新最新研究成果。
transformers-ruby是为Ruby语言提供最新的Transformers技术的库,支持多种模型架构,适用于各种自然语言处理任务,并提供丰富的功能,能够与Ruby语言无缝集成。
PrimeQA是一个先进的多语言问答研究与开发的主要资源库,支持最新的深度学习模型,易于扩展和定制,并提供多种数据集与基准测试,适用于实时问答和批量处理场景。
Unsupervised-TTS是由Cheng-I Jeff Lai开发的无监督语音合成系统,旨在利用无监督学习算法提高语音合成的质量和效率,同时支持多种语言,便于与现有系统集成。
LeRobot 是一个端到端的训练框架,专注于真实世界的机器人技术,通过 PyTorch 提供模型、数据集和工具,旨在降低机器人技术的准入门槛,使研究者和开发者能够更轻松地开发和测试机器人应用。
一个高效的深度学习训练框架,旨在简化模型训练和优化过程,提供了多种预训练模型和工具,适用于计算机视觉任务。
EasyNLP是一个功能全面且易于使用的自然语言处理工具包,支持多种NLP任务,提供丰富的预训练模型,并能与多种深度学习框架无缝集成。它拥有良好的文档和社区支持,旨在简化用户的NLP开发流程。
LLaVA-LLaMA-3是基于Llama-3-8b大型语言模型(LLM)的LLaVA-v1.5复现项目,旨在提供预训练模型及相关的训练和演示脚本,方便研究人员和开发者进行自然语言处理任务的探索与应用。
提供了 ComfyUI 的 BiRefNet 插件,支持多种预训练模型的使用,包括通用、人像、图像分割等场景的模型,并且支持自动下载模型文件。
基于MindSpore的易于使用和高性能的自然语言处理(NLP)和语言模型(LLM)框架,与Huggingface的模型和数据集兼容,支持多种NLP任务。
DiffBIR是一个基于扩散模型实现盲影像复原的项目,支持多种类型的图像,包括动漫、人物、风景和物品等,旨在有效处理盲图像问题,适用于多种应用场景。
HugNLP是一个基于HuggingFace Transformer的综合自然语言处理库,支持多种NLP任务,具有易于使用的API接口和丰富的预训练模型,同时允许用户自定义模型训练。
AntiFraudChatBot是一个基于wechaty框架和微调NLP模型的简单聊天AI,旨在提供防诈骗智能响应。它通过预训练的大模型进行自然语言处理,支持中文,并能够与用户通过微信进行互动,提供有效的防诈骗建议。
transformers_zamba2是一个为自然语言处理打造的先进工具库,提供数千个预训练模型,支持文本分类、问答、翻译等多种语言任务,让NLP技术更易用。该库不仅可以处理文本数据,还支持视觉和音频模态,适用于多种应用场景。
Segment Anything Fast 是一个面向批量离线推断的高效图像分割工具,基于PyTorch实现,旨在提供快速、便捷的图像分割解决方案,适合在本地环境中使用。
Sudoku-RWKV是一款专门用于解决数独问题的神经网络模型,基于RWKV-v6架构,通过约2百万个数独样本训练而成。模型参数量约1270万,具有8层结构和320维度,能够有效解决任意有解的数独题目。
PatrickStar使得更大、更快、更环保的预训练模型在自然语言处理领域成为可能,推动AI的普及。
LLMTuner是一个高效的工具,旨在通过简化的微调流程,使用户能够在几行代码内调整大语言模型(LLM)。它支持多种预训练模型的加载和微调,提供灵活的超参数调整功能,同时拥有友好的用户界面,便于用户快速上手。该项目的可扩展性强,适用于不同的应用场景。
SimCSE是一个简单的框架,旨在通过无监督和监督的方法进行句子嵌入的对比学习,从而实现高质量的句子表示。
字节跳动提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型