GLM-4是智谱开源的一个系列模型,包含基座模型、不同上下文长度的Chat模型和视觉模型。该系列模型在性能上全面超越LLaMA 3 8B,具备更快的速度和更低的价格。GLM-4支持1M无损上下文和26种语言,函数调用能力提升40%,视觉模型GLM 4V 9B的能力比肩GPT 4V。
Doubao Vision lite是火山方舟提供的视觉模型,专门用于手写笔记的识别。它支持与Dify等开源项目的集成,适用于手写内容的抽取和转换,广泛应用于需要视觉识别的开发场景。
一个精选的ROS项目集合,收录了利用基础模型的机器人项目资源,包括框架、模型封装、开发工具和演示项目。涵盖了语言模型、视觉模型等在ROS环境下的应用,方便开发者快速找到和使用各类基础模型
展示如何使用 TensorFlow 生态系统从 Transformers 构建视觉模型的机器学习管道,支持完整的 MLOps 流程,集成模型管理和监控功能。
一种无需标签的图像分类方法,通过利用大型语言模型和预训练的视觉模型,提升图像分类的准确性,无需大量标注数据,降低了成本
Deita旨在为大型语言模型(LLM)的指令微调提供自动数据选择工具和高质量的对齐数据集,Deita模型能通过比其他SOTA LLM少10倍的指令微调数据进行训练,达到与它们相媲美的性能。
来自悉尼大学的研究团队提出了一种通过自监督生成标注的框架,旨在解决数据标注任务中的成本、偏见、评估和标注难度等问题。
Ape是一个前沿的AI工具,旨在通过追踪、数据集策划、批量测试和评估等高级功能,优化大型语言模型的提示工程。它为希望通过真实数据提升LLM应用的专业人士和组织提供支持,并通过CI/CD集成防止性能回归。
PromptStacks是一个社区驱动的平台,用户可以分享和发现生成式AI的技巧、窍门和资源,旨在帮助用户在AI领域保持领先。提供免费审核的提示和全面的课程,用户可以参与讨论、分享提示并获得反馈。
本书旨在概述大型语言模型的基本概念并介绍相关技术,重点在于大型语言模型的基础方面,而不是全面覆盖所有前沿方法。
大型语言模型微调用高质量数据集大列表,帮助提升模型的准确性和多样性,使其更好地理解和执行指令。该项目提供了丰富的高质量数据集,支持不同语言模型的微调需求,适合研究人员和开发者使用。