Meta-Transformer是一个用于多模态学习的统一框架,能够处理各种模态如自然语言、2D图像、3D点云、音频、视频、时间序列和表格数据。它采用冻结的编码器进行多模态感知,并且可以在没有配对的多模态训练数据的情况下进行训练,同时可学习的数据预处理器能够处理每个输入模态,生成共享的嵌入表示。
这是一个具有370亿参数的生成式多模态模型,使用统一的自回归目标在大规模多模态序列上进行训练。
Perceiver IO是DeepMind的Perceiver IO的非官方PyTorch实现,支持分布式训练,具有通用输入处理能力,适用于图像、文本和音频等多种任务,设计高效,能够处理大规模数据。
Merlin是一种由和支持的新型MLLM,展示了增强的视觉理解、未来推理和多图像输入分析能力。研究人员提议将未来建模引入多模态LLM(MLLMs)中,以提高对基本原则和主体意图的理解。他们利用了现有学习范式启发的预见性预训练(FPT)和预见性指令调优(FIT)技术。
PaLI-3是一个相对更小、更快且更强大的视觉语言模型,其性能表现优于大小为其10倍的类似模型,专注于多模态任务的高效处理。
LanceDB是一个开创性的工具,旨在彻底改变企业和个人处理多模态AI应用的方式。它提供强大的数据库解决方案,专门满足AI驱动环境的需求,简化了管理文本、图像、视频和音频等多种数据类型的复杂性,适用于开发者、数据科学家和商业分析师。
MIMIC-IT:多模态上下文指令调优,展示了一个包含 280 万个多模态指令-响应对的数据集,以及从图像和视频中派生的 220 万个独特指令。
全球最大的去中心化通用人工智能多模态数据集,旨在通过全球社区的力量,构建一个超越现有资源规模和多样性的数据集,推动AGI模型的发展
VICReg(Variance-Invariance-Covariance Regularization)是一种自监督学习框架,通过方差、不变性和协方差正则化来改善特征表示,旨在无标签数据的情况下训练模型并提高无监督任务的表现。
字节跳动提供 DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5等领先大模型