Phi-3.5-vision是由微软开发的开源多模态模型,专注于文本和视觉数据处理。它基于合成数据和精选公开数据构建,支持128K上下文长度,通过监督微调和直接偏好优化提升指令遵循和安全性。该模型参数量为42亿,包含图像编码器、连接器、投影器和Phi-3 Mini语言模型,训练数据达5000亿令牌,适用于内存/计算受限环境。
Vary是一种新的视觉识别方法,专注于文档级OCR和图表理解。它通过两个阶段生成并整合新的视觉词汇,首先设计词汇网络和小型解码器,通过自回归生成所需词汇,然后通过合并新词汇和原始词汇(CLIP)来扩展原始视觉词汇,使大型视觉语言模型(LVLMs)能够快速获取新特征。Vary在保持原有能力的同时,展现出更出色的细粒度感知和理解能力,尤其擅长识别表格和公式,并具备多模态推理能力。
DeepSeek-VL2是一个基于MoE架构和动态切图技术的先进视觉语言模型,旨在提升视觉能力并支持多种视觉任务。该模型在多模态理解方面取得了显著进展,特别是在视觉问题回答、光学字符识别、文档/表格/图表理解和视觉定位等任务上表现出色。
Florence-VL是微软开源的多模态模型,具备强大的图像理解能力,能够从不同角度深入理解图片内容并给出准确回复。其核心在于升级的视觉编码器和深度-广度融合(DBFusion)机制,支持多层次、多方面的视觉特征捕获和融合,超越了传统的CLIP式视觉Transformer模型。